[go: up one dir, main page]

JP6569416B2 - 画像処理装置、物体認識装置、機器制御システム、画像処理方法及び画像処理プログラム - Google Patents

画像処理装置、物体認識装置、機器制御システム、画像処理方法及び画像処理プログラム Download PDF

Info

Publication number
JP6569416B2
JP6569416B2 JP2015182354A JP2015182354A JP6569416B2 JP 6569416 B2 JP6569416 B2 JP 6569416B2 JP 2015182354 A JP2015182354 A JP 2015182354A JP 2015182354 A JP2015182354 A JP 2015182354A JP 6569416 B2 JP6569416 B2 JP 6569416B2
Authority
JP
Japan
Prior art keywords
image data
image
reference image
installation
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015182354A
Other languages
English (en)
Other versions
JP2017058890A (ja
Inventor
直樹 本橋
直樹 本橋
山合 敏文
敏文 山合
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2015182354A priority Critical patent/JP6569416B2/ja
Publication of JP2017058890A publication Critical patent/JP2017058890A/ja
Application granted granted Critical
Publication of JP6569416B2 publication Critical patent/JP6569416B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理装置、物体認識装置、機器制御システム、画像処理方法及び画像処理プログラムに関する。
近年、情報処理技術や画像処理技術の発達により、視差を用いて高速に人や自動車などを検出(認識)する車載認識技術が開発されてきている。例えば、検出の対象が人や自動車である場合、撮像した画像データから検出の非対象となる画像データを棄却して、検出精度の向上、及び画像データの削減を図ることがある。
また、特許文献1には、撮像手段により時系列に出力された画像各々の中から、予め作成された検出対象のモデルに基づいて、該検出対象として識別される度合いを示す識別値が所定値以上の領域を取得し、取得された領域と、記憶手段に記憶された領域の系列とが対応するか照合し、領域の系列が検出対象であるか否かを判定する物体検出装置が開示されている。
しかしながら、視差が輝度画像を基準に算出される場合、照明条件や被写体のテクスチャの影響を受ける問題や、輝度画像のブロックマッチングの性能によって視差が正確に算出されないことが発生することがある。したがって、撮像した画像データから検出の非対象となる画像データを棄却するときに、棄却の精度を十分に向上させることができないことがあった。換言すると、所定の方法で画像データを棄却する際に、視覚的に類似していたとしても、上記のように照明条件などで画像情報が変化すると、その差異によって棄却できる物体とできない物体が発生する可能性があった。
本発明は、上記に鑑みてなされたものであって、撮像された画像データから検出の非対象となる画像データを精度よく棄却することができる画像処理装置、物体認識装置、機器制御システム、画像処理方法及び画像処理プログラムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明は、1つ以上の物体が撮像された基準画像と、前記基準画像とは異なる撮像位置から撮像された比較画像との間で生じる視差の頻度分布に基づいて、前記基準画像を示す基準画像データの一部を、予め定められた方向に連続するように設置された設置物を示す設置物画像データであると判定する第1判定部と、前記設置物画像データを前記基準画像データから棄却する第1棄却部と、前記第1棄却部が前記設置物画像データを棄却させた前記基準画像データの一部を、前記設置物画像データに基づいて、前記設置物に連続する物体を示す連続物画像データであると判定する第2判定部と、前記第1棄却部が前記設置物画像データを棄却させた前記基準画像データから、前記連続物画像データを棄却する第2棄却部と、を有することを特徴とする。
本発明によれば、撮像された画像データから検出の非対象となる画像データを精度よく棄却することができるという効果を奏する。
図1は、本発明の実施の形態にかかる機器制御システムである車両に搭載されたステレオカメラの位置を示す図である。 図2は、車両が有するステレオカメラ及びその周辺の構成を示す図である。 図3は、ステレオカメラを備えた物体認識装置の構成例を示す図である。 図4は、車両が有する画像による機器制御機能の概要を示す機能ブロック図である。 図5は、カメラ部が撮像した基準画像を模式的に示した図である。 図6は、図5に示した基準画像に対応する頻度Uマップを示す図である。 図7は、図6に示した頻度Uマップをリアル頻度Uマップに変換した結果を示す図である。 図8は、棄却部の構成例を示すブロック図である。 図9は、俯瞰マップにおける先行車両の視差の頻度分布例を示す図である。 図10は、左隣の車線を走行している先行車両の視差の頻度分布と、先行車両のコーナー等を検出する処理過程を示す図である。 図11は、視野角が最大になるブロックaと、視野角が最小になるブロックbとを示す図である。 図12は、視差頻度の高い点A、Bの第1の選択方法を示す図である。 図13は、視差頻度の高い点A、Bの第2の選択方法を示す図である。 図14は、視差頻度の高い点A、Bの第3の選択方法を示す図である。 図15は、自車と同じ車線を走行している先行車両の視差の頻度分布と、先行車両のコーナー等を検出する処理過程を示す図である。 図16は、走行車両の左側に側壁物がある状態を示す図である。 図17は、走行車両の右側を走行している追い越し車両と、遠方の側壁物が新規検出物体である場合を示す図である。 図18は、側壁物の面が1つの場合と、2つの場合を示す図である。 図19は、前方を走行する車両が形成する2つの面を示す図である。 図20は、第1算出部の動作を示すフローチャートである。 図21は、棄却部の第1動作例を示すフローチャートである。 図22は、側壁物中に出現する誤認識物体を示す図である。 図23は、棄却されていなかった面を側壁物の一部と判定する場合の例を示す図である。 図24は、棄却部の第2動作例を示すフローチャートである。 図25は、残存物体を誤検出物体と判定する場合の例を示す図である。 図26は、残存物体を誤検出物体と判定する条件を例示する図である。 図27は、棄却部の第3動作例を模式的に示す図である。 図28は、棄却部の第4動作例を模式的に示す図である。 図29は、棄却部の第4動作例を示すフローチャートである。 図30は、棄却部の第5動作例を模式的に示す図である。
以下に添付図面を参照して、実施形態にかかる機器制御システムについて説明する。図1は、本発明の実施の形態にかかる機器制御システムの例である車両1に搭載されたステレオカメラ2の位置を示す図である。例えば、車両1は、進行方向前側の所定の撮像範囲を撮像するステレオカメラ2が前部に設けられた自動車である。ステレオカメラ2は、図3を用いて後述するように2つの画像センサ22を備え、左目視界と右目視界の2つの画像を撮像する撮像部である。
図2は、車両1が有するステレオカメラ2及びその周辺の構成例を示す図である。ステレオカメラ2は、例えば撮像した2つの画像を車両ECU(Engine Control Unit)3に対して出力する。車両ECU3は、車両1に設置され、車両1のエンジン及び車両1のその他の電気的な制御及び処理を総合的に行う。
図3は、ステレオカメラ2を備えた物体認識装置4の構成例を示す図である。物体認識装置4は、例えばステレオカメラ2及び画像処理装置30を有する。ステレオカメラ2は、左目用となるカメラ部2aと、右目用となるカメラ部2bが平行(水平)に組みつけられ、撮像対象領域の動画(又は静止画)を撮影する。
カメラ部2a、2bは、それぞれレンズ21、画像センサ22、及びセンサコントローラ23を備えている。画像センサ22は、例えばCCD(Charge Coupled Device)イメージセンサ又はCMOS(Complementary Metal-Oxide Semiconductor)イメージセンサである。センサコントローラ23は、例えば画像センサ22の露光制御、画像読み出し制御、外部回路との通信、及び画像データの送信制御等を行う。
画像処理装置30は、例えば図2に示した車両ECU3内に設けられる。画像処理装置30は、例えばデータバスライン300、シリアルバスライン302、CPU(Central Processing Unit)304、FPGA(Field-Programmable Gate Array)306、ROM(Read Only Memory)308、RAM(Random Access Memory)310、シリアルIF(Interface)312、及びデータIF(Interface)314を有する。
上述したステレオカメラ2は、データバスライン300及びシリアルバスライン302を介して画像処理装置30と接続されている。CPU304は、画像処理装置30全体の動作を制御し、画像処理及び画像認識処理を実行する。カメラ部2a、2bそれぞれの画像センサ22が撮像した撮像画像の輝度画像データは、データバスライン300を介して画像処理装置30のRAM310に書き込まれる。CPU304又はFPGA306からのセンサ露光値の変更制御データ、画像読み出しパラメータの変更制御データ、及び各種設定データ等は、シリアルバスライン302を介して送受信される。
FPGA306は、RAM310に保存された画像データに対してリアルタイム性が要求される処理である、例えばガンマ補正、ゆがみ補正(左右画像の平行化)、ブロックマッチングによる視差演算を行って視差画像を生成し、RAM310に再度書き込む。CPU304は、ステレオカメラ2の各センサコントローラ23の制御、及び画像処理装置30の全体的な制御を行う。また、ROM308には、状況認識、予測、及び物体認識等を実行するための(立体)物体認識プログラムが記憶されている。
物体認識プログラムは、画像処理プログラムの一例である。CPU304は、データIF314を介して、例えば自車両のCAN(Controller Area Network)情報をパラメータ(車速、加速度、舵角、ヨーレート等)として取得する。そして、CPU304は、ROM308に記憶されている物体認識プログラムに従って、RAM310に記憶されている輝度画像データ及び視差画像データを用いて、状況認識等の各種処理を実行し、例えば先行車両等の検出対象の検出(認識)を行う。また、画像データの棄却処理もCPU304が実施する。
検出対象(認識対象)の検出データ(認識データ)は、シリアルIF312を介して、例えば車両ECU3内に制御機能を設けられた自動ブレーキシステム、又は自動速度制御システム等に対して出力される。自動ブレーキシステムは、認識対象の認識データを用いて車両1のブレーキ制御を行う。また、自動速度制御システムは、認識対象の認識データを用いて車両1の速度制御を行う。
次に、車両1がステレオカメラ2を用いて実行する機器制御について説明する。図4は、車両1が有する画像による機器制御機能の概要を示す機能ブロック図である。なお、図4においては、車両1がステレオカメラ2を用いて行う機器制御機能が示されている。
車両1は、画像による機器制御を実行するために、撮像部(ステレオカメラ)2、視差計算部40、クラスタリング部42、棄却部44、トラッキング部46、及び出力制御部32を有する。ここで、視差計算部40、クラスタリング部42、棄却部44、及びトラッキング部46は、画像処理装置30が物体認識プログラムを実行することによって実現される。また、出力制御部32は、例えば車両ECU3内に設けられ、車両1に設けられたエンジンやブレーキなどの機構等を制御する。なお、視差計算部40、クラスタリング部42、棄却部44、トラッキング部46、及び出力制御部32は、ソフトウェアによって構成されることに限定されることなく、それぞれ一部又は全部がハードウェアによって構成されてもよい。
ここでは、車両1が動画の1フレームの画像(左目視界と右目視界の2つの画像)を処理する場合を例に説明する。まず、撮像部(ステレオカメラ)2は、フレーム情報を取得する。入力フレームは、ステレオカメラ2が2つの画像センサ22を用いて撮像した2枚の画像である。2枚の画像の一方は基準画像となり、他方は比較画像となる。比較画像は、基準画像とは異なる撮像位置から撮像される。カメラ部2aは、例えば図5に模式的に示した基準画像を撮像する。基準画像には、先行車両500、対向車両502、左ガードレール504a、及び右ガードレール504bが撮影されている。
視差計算部40(図4)は、基準画像と比較画像を用いて、局所領域のブロックマッチングなどにより、画素ごとの視差を計算する。
クラスタリング部42は、視差計算部40が計算した視差の頻度をカウントし、視差の頻度に応じた画素値をもつ画素を輝度画像の二次元直交座標系上に分布させたマップ(頻度Uマップ)を作成する。例えば、クラスタリング部42は、基準画像及び比較画像に撮影された路面からの高さが30cm〜2mの間の画像の視差を用いて頻度Uマップを作成する。
図6は、図5に示した基準画像に対応する頻度Uマップである。頻度Uマップは、横軸が画像の横方向(X方向)と同じであり、縦軸が奥行方向となっている。図6に示した頻度Uマップでは、図5の基準画像に撮影されていた先行車両500、対向車両502、左ガードレール504a、及び右ガードレール504bに対応する位置に、視差を示す画素が密集している領域(密集領域)ができている。
さらに、クラスタリング部42は、頻度Uマップをリアル頻度Uマップに変換する。頻度Uマップ上のx方向の距離は、実空間上のx方向の距離が同じであっても、ステレオカメラ2からの距離が離れるほど(頻度Uマップの上側に向かって)、頻度Uマップ上の消失点に近づくので、短くなってしまう。図7は、図6に示した頻度Uマップをリアル頻度Uマップに変換した結果を示す図である。リアル頻度Uマップは、頻度UマップにおけるX方向の距離を、ステレオカメラ2から撮影された物体までの距離によらず、実空間上のx方向の位置に変換したものである。つまり、リアル頻度Uマップは、基準画像に撮影されている領域を実空間上で真上から見た場合の視差の頻度の分布を表すマップである。リアル頻度Uマップの縦軸は、ステレオカメラ2からの距離を示している。
図7に示したリアル頻度Uマップでは、左ガードレール504a及び右ガードレール504bは、上下方向に延びる密集領域となる。また、先行車両500及び対向車両502は、車両の背面と片側面に対応する形状の密集領域になる。このように、リアル頻度Uマップでは、物体を示す密集領域は、実空間上の車両1の前方の領域を真上から見たときの物体の形状に近い形状となる。リアル頻度Uマップは、フレーム(視差画像)全体に対して作成されてもよいし、部分領域に対して作成されてもよい。なお、リアル頻度Uマップのことを、俯瞰マップと記すことがある。
そして、クラスタリング部42は、俯瞰マップ上での密集領域を新規検出物体として検出する。この時、クラスタリング部42は、新規検出物体に対して、輝度画像上の座標やサイズから予測した物体のタイプ(人や自動車)などの個体情報を付与する。図7に示した俯瞰マップでは、図5の基準画像に撮影されていた先行車両500、対向車両502、左ガードレール504a、及び右ガードレール504bが真上から見た実際の形状に近い形で密集領域になっている。
棄却部44(図4)は、フレーム情報(輝度画像、視差画像)、俯瞰マップ、及び新規検出物体の個体情報を用いて、新規検出物体が検出対象(認識対象)の物体であるか、非検出対象の物体であるかを判定する。ここでは、例えば人及び自動車を検出対象とし、その他の側壁物などを非検出対象とする。なお、検出対象の物体は、継続的に検出すべき物体(追跡対象)として扱われる。そして、棄却部44は、非検出対象を示す画像データを棄却対象の画像データと判定する(棄却判定)。棄却部44は、棄却対象となった画像データ(個体情報)に棄却判定結果を付与する。
さらに、棄却部44について詳述する。図8は、棄却部44の構成例を示すブロック図である。棄却部44は、例えばネットワークバス440、取得部442、第1処理部444、第2処理部446を有し、記憶部448を備えるように構成されてもよい。記憶部448は、例えば棄却部44を構成する各部が処理した結果を記憶する。また、出力部449を備えてもよい。出力部449は、棄却部44内での棄却結果を、後段の処理部(例えば、トラッキング部46)に出力する。そして、棄却部44は、着目フレーム以前に棄却した非検出対象を用いて、着目フレームに対する処理を行ってもよい。なお、取得部442、第1処理部444、及び第2処理部446は、それぞれ一部又は全部がハードウェアによって構成されてもよいし、ソフトウェアによって構成されてもよい。
ネットワークバス440は、データを伝送するバスである。例えば、ネットワークバス440は、新規検出物体ごとにデータを伝送する。
取得部442は、クラスタリング部42が検出した新規検出物体の個体情報、フレーム(輝度画像、視差画像)、俯瞰マップなどを取得する。より具体的には、取得部442が棄却処理に必要な情報を取得する。取得部442は、ステレオカメラ2などのデバイスが取得した情報を直接読み込んでもよいし、これらの情報を予めCD、DVD、HDDなどの記録メディアやネットワーク・ストレージに保存しておき、必要時にこれらを読み込んでもよい。また、取得部442は、静止画を取得しても、ステレオカメラ2が撮影した動画像データを逐次取得してもよい。
取得部442が取得する情報は、任意の組み合わせで構成されてもよい。例えば、取得部442は、ステレオカメラ2が撮影したフレーム(視差画像)から生成した俯瞰マップとクラスタリング結果として生成された新規検出物体情報を併せて取得してもよい。新規検出物体情報は、クラスタリング結果として得られた、輝度画像上の位置、サイズから判定したオブジェクトタイプ(歩行者や人)、棄却情報、トラッキング情報などを物体ごとに任意に組み合わせたものである。また、取得部442は、視差画像をクロップしたものを取得してもよいし、物体情報が持つ座標情報に基づいて視差画像中の該当箇所の画素を示す情報を取得してもよい。
第1処理部444は、例えば第1算出部450、対象面決定部451、第1判定部452、及び第1棄却部453を有する。なお、第1処理部444は、対象面決定部451を有していない構成であってもよい。
第1算出部450は、新規検出物体が有する面を算出し、算出した面の角度をさらに算出する。なお、新規検出物体が有する面の角度とは、例えばステレオカメラ2が有する2つの画像センサ22をそれぞれ通過する直線に対する俯瞰マップ上の角度であるとする。
ここで、第1算出部450が新規検出物体の面を算出し、算出した面の角度をさらに算出する具体例について説明する。図9は、俯瞰マップにおける先行車両の視差の頻度分布例を示す図である。俯瞰マップの分解能を例えば128mmとすると、先行車両の視差の頻度分布は、128mm×128mmのブロックが複数並んだ形状となる。なお、俯瞰マップの分解能を高くすると(例えば、64mm)、精度は上がるが、ブロックの密度が疎らになって物体の検出が困難になる。また、俯瞰マップの分解能を低くすると(例えば、256mm)、ブロックの密度が密になるが、分解能が低いために物体の正確な位置が検出しにくくなる。
先行車両の視差の頻度分布では、図9に示したZ軸方向及びX軸方向において、ステレオカメラ2からの距離が遠い位置でブロックが斜め方向に伸びる形状となる。これは、撮影時の条件等に応じて生じる視差の誤差(分散)によるものである。俯瞰マップを作成する元となった基準画像及び比較画像において、先行車両の側面しか写っていない場合は、当該斜め方向に延びるブロックは少ない。また、俯瞰マップを作成する元となった基準画像及び比較画像において、先行車両の近くに、先行車両より遠方に存在するものが背景として写っている場合等は、当該背景の視差の影響による誤差で、当該斜め方向に延びるブロックが多くなる。
次に、先行車両の視差の頻度分布を用いて、当該先行車両のコーナー(先行車両の側面と背面の境界)等を検出する処理について説明する。図10は、左隣の車線を走行している先行車両の視差の頻度分布と、先行車両のコーナー等を検出する処理過程を示す図である。
まず、第1算出部450は、検出した先行車両の視差を示すブロックの密集領域に対し、視野角が最小になる位置付近の領域、及び視野角が最大になる位置付近の領域それぞれで、視差頻度の高い点A、Bを算出する。なお、視野角は、例えば2つの画像センサ22の中心点(基準画像及び比較画像それぞれの撮像位置の中心点)からのZ方向に延びる直線に対する角度である。
より具体的には、図11に示すように、第1算出部450は、視野角が最小になる位置付近の領域、及び視野角が最大になる位置付近の領域をそれぞれ決定するために、まず、視野角が最大になるブロックaと、視野角が最小になるブロックbとを探索して選択する。
次に、第1算出部450は、第1の選択方法として、図12に示すように、各ブロックを包含する外接矩形600を設定し、ブロックaを包含する三角領域602と、ブロックbを包含する三角領域604とを設定する。ここでは、外接矩形600の左下に三角領域602が設定され、右上に三角領域604が設定されている。そして、第1算出部450は、三角領域602の中で頻度が最大となるブロックを点Aとして選択し、三角領域604の中で頻度が最大となるブロックを点Bとして選択する。
また、第1算出部450は、第2の選択方法として、図13に示すように、選択したブロックa及びブロックbをそれぞれ中心にした所定の矩形範囲606(例えば5×5、又は長方形)に含まれるブロック集合の中で、頻度が最大となる点A、点Bを選択する。
また、第1算出部450は、第3の選択方法として、図14に示すように、選択したブロックa及びブロックbをそれぞれ中心にした所定の半径の円608(例えば半径3.5、又は楕円)に含まれるブロック集合の中で、頻度が最大となる点A、点Bを選択する。
このように、第1算出部450は、第1の選択方法〜第3の選択方法のいずれか等の方法を用いて、視差頻度の高い点A、Bを算出する。
次に、第1算出部450は、図10に示したように、点A、Bを直径の端点とする円周上の点Dを俯瞰マップ上で設定する。そして、第1算出部450は、線分AD及び線分BDが通過する俯瞰マップ上の点(ブロック)の頻度の平均値を、頻度平均値として算出する。
第1算出部450は、頻度平均値を例えば次のように算出してもよい。まず、第1算出部450は、俯瞰マップ上の各ブロックの中心を、X座標及びZ座標の整数の座標値とする。そして、点AのX座標の値から、点DのX座標の値まで、1ずつ値を変え、各X座標の値において、線分ADのZ座標の小数点以下を四捨五入する等により量子化する。そして、第1算出部450は、各X座標における量子化されたZ座標の各ブロックの頻度の値を合計する。つまり、線分ADについての頻度の合計値が算出される。
同様に、第1算出部450は、線分BDについての頻度の合計値も算出する。そして、第1算出部450は、線分AD、線分BDの頻度の合計値を、当該合計値に自身の頻度の値を算入された上記各ブロックの数で除算する。図10に示した例の場合、○が付与されたブロックに対応する頻度の値が合計され、○が付与されたブロックの数である11で除算される。また、第1算出部450は、線分AD及び線分DBが通過する俯瞰マップ上のブロック毎の頻度の値を積分することによって合計値を算出し、線分AD及び線分DBの長さで除算することにより、頻度平均値を算出してもよい。また、頻度平均値を使用せずに、頻度の合計値を使うことも可能である。要するに二本の線分が視差分布上に配置されるように決定できれば任意の方法が使用可能である。
さらに、第1算出部450は、点Dを点Aから点Bまで移動させ、頻度平均値の算出を繰り返す。例えば、第1算出部450は、点Dを、点A、Bを直径の端点とする円周上で、円の中心からの角度が所定の角度(例えば2°)ずつ変わるように移動させる。そして、第1算出部450は、弧AB間で頻度平均値が最大となる点DをDmaxとして出力する。図10に示した例の場合には、線分ADmax及び線分BDmaxのX軸方向に対する角度は、それぞれ0度、90度となる。
図15は、自車と同じ車線(正面)を走行している先行車両の視差の頻度分布と、先行車両のコーナー等を検出する処理過程を示す図である。自車と同じ車線(正面)を走行している先行車両の視差の頻度分布に対して、頻度平均値が最大となる点Dmaxを算出すると、点Dmaxの位置は点A又は点Bの位置となる。なお、図15に示した例の場合、線分ADmax及び線分BDmaxのX軸方向に対する角度は、どちらも0度となる。
そして、第1算出部450は、線分ADmaxに対応する平面の角度、線分BDmaxに対応する平面の角度、及び各平面の垂直な辺の(X、Y)座標を算出する。つまり、第1算出部450は、基準画像及び比較画像それぞれの撮像位置を通る直線に対して、基準画像に撮像された物体が備える面の角度を視差の頻度分布に基づいて算出する。
対象面決定部451(図8)は、新規検出物体が複数の面を有する場合、複数の面の数と形状(サイズ)に応じて、棄却処理の対象となる面を決定する(図18、19を用いて後述)。
第1判定部452は、第1算出部450が算出した面の角度、又は対象面決定部451が決定した面の有無に応じて、新規検出物体が検出対象であるか非検出対象であるかを判定する。例えば、第1判定部452は、面の角度が略90度(予め定められた範囲)の新規検出物体を非検出対象であると判定する。そして、第1判定部452は、非検出対象を示す画像データを棄却対象とする。
図16は、走行車両の左側に側壁物がある状態を示す図である。図16に示した状態の場合、第1判定部452は、第1算出部450が算出した面の角度に応じて、新規検出物体が検出対象であるか非検出対象であるかを判定する。例えば、第1判定部452は、第1算出部450が算出した面の角度が所定範囲に入っている場合に、処理対象となっている新規検出物体を棄却対象とする。例えば、側壁物は、2つの画像センサ22を通過する直線に対して90度以上の角度を持っている可能性があり、側壁物の中央部(枠部)では角度が90度を超えている。つまり、第1判定部452は、車両が持ち得ない面の角度の範囲を判定の基準となる所定値として設定しておくことにより、誤って検出対象を棄却することなく、非検出対象を棄却対象と判定することができる。
第1判定部452は、追い越し車両に対して判定を行う場合、追い越し車両が側壁物と同じような面の角度を持つことが多いため、判定の基準となる面の角度を90度以上に設定してしまうと棄却できる非検出対象が減少してしまう可能性がある。そこで、第1判定部452は、画像上の位置や自車からの実距離を用いて、判定対象を限定してもよい。これにより、第1判定部452は、追い越し車両が含まれない領域に対して、狭い視野角の範囲(例えば、70度以上など)を判定基準として設定することができる。
図17は、走行車両の右側を走行している追い越し車両と、遠方の側壁物が新規検出物体である場合を示す図である。図17に示すように、追い越し車両は自車(図17では中央)に対して、近距離に存在する場合が多い。従って、第1判定部452は、自車を中心に各物体までの実距離を計測し、距離が所定値以上の新規検出対象(側壁物の枠部)を棄却処理対象としてもよい。また、画像上の位置を使う方法には、画像を横方向でいくつかに分割し、その両端の領域に含まれる物体に対して判定を行う方法もある。このように、第1判定部452は、第1算出部450が算出した面が1つである物体の面の角度に基づいて、基準画像データの一部を設置物画像データであると判定して棄却対象とする。つまり、第1判定部452は、基準画像を示す基準画像データの一部を、予め定められた方向に連続するように設置された設置物を示す設置物画像データであると判定して棄却対象としている。
次に、新規検出物体が複数の面を有する場合に対象面決定部451が行う処理について説明する。図18は、側壁物の面が1つの場合(a)と、2つの場合(b)を示す図である。本来、側壁物の面は1つになるはずであるが、俯瞰マップを用いて面と角度を算出する場合、視差の分散の影響によって図18(b)に示したように面の底辺の長さが一方に比べて大きく異なる面が算出される可能性がある。
面が2つある新規検出物体は、側壁物であるか車両であるかを明確にする必要がある。そこで、対象面決定部451は、面が2つある新規検出物体に対し、車両でないことを確認する処理と、2つの面のどちらの面の角度を算出するかを決定する処理を行う。
対象面決定部451は、面が2つある新規検出物体に対し、2つの面の底辺の比を算出し、算出した比に応じて新規検出物体が車両であるか否か、及び角度を算出する面を決定する。
図19は、前方を走行する車両が形成する2つの面を示す図である。図19に示すように、新規検出物体が車両である場合、側壁物と同様に面が2つ算出されるが、2つの面の底辺の長さの差は大きくならない。よって、対象面決定部451は、面が2つ算出される場合、2つの面の底辺、又は上辺の比を算出し、その比が所定値以上である場合には、新規検出物体が側壁物であると仮定し、角度を算出する面を決定する。一方、対象面決定部451は、2つの面の底辺の比が所定値未満である場合、新規検出物体が車両であると仮定して棄却のための処理を行わない。
なお、対象面決定部451は、底辺(又は上辺)の比を二次元の画像上(輝度画像、視差画像)で算出してもよいし、俯瞰マップから実距離を算出して使用してもよい。さらに、対象面決定部451は、辺の比ではなく、2つの面の面積比を使ってもよい。また、対象面決定部451は、新規検出物体に対して3つ以上の面を算出しても、同様に任意の2つの面に対して上述した処理を行い、棄却判定に使用する面を決定してもよい。
また、第1判定部452は、対象面決定部451が有する機能を兼ね備えていてもよい。つまり、第1判定部452は、第1算出部450が算出した面を複数備える物体を示す画像データに対し、物体の画像データが示す複数の面それぞれの長さの比に基づいて、設置物画像データであるか否かを判定するように構成されてもよい。もちろん、上記における長さの比に代えて、面積の比が用いられてもよい。つまり、第1判定部452は、第1算出部450が算出した面を複数備える物体を示す画像データに対し、物体の画像データが示す複数の面それぞれの面積の比に基づいて、設置物画像データであるか否かを判定するように構成されてもよい。
第1棄却部453(図8)は、第1判定部452が棄却対象とした非検出対象を示す画像データ(設置物画像データ)を、基準画像の画像データから棄却する。
このように、第1判定部452が新規検出物体の面の角度に応じて棄却する物体の画像データを決定する方式を面角度棄却方式と呼ぶことにする。また、面角度棄却方式により画像データを棄却された新規検出物体を棄却物体と呼ぶことにする。また、面角度棄却方式により画像データを棄却されなかった新規検出物体を残存物体と呼ぶことにする。また、面角度棄却方式により画像データを棄却されるべき非検出対象であって、画像データを棄却されなかった新規検出物体を誤検出(誤認識)物体と呼ぶこととする。
第2処理部446は、第2算出部454、第2判定部455、及び第2棄却部456を有し、以下に記す各動作を任意に組み合わせて動作可能にされている。
第2算出部454は、次に記す動作の少なくともいずれかを行う。例えば、第2算出部454は、棄却物体の所定の特徴量と、棄却物体が有する面の角度に対して面の角度が予め定められた範囲内にある残存物体の所定の特徴量とを算出する。また、第2算出部454は、俯瞰マップ上で棄却物体を近似する近似直線を算出する。第2算出部454は、着目フレームにおける棄却物体から残存物体までの距離と、着目フレーム以前のフレームにおける棄却物体から残存物体までの距離とを算出する。
第2判定部455は、次に記す動作の少なくともいずれかを行う。例えば、第2判定部455は、第2算出部454が算出した棄却物体及び残存物体それぞれの特徴量を比較し、特徴量の差が所定値以下である場合には、当該残存物体を非検出対象であると判定する。つまり、第2判定部455は、設置物画像データが有する特徴量に対し、類似度が所定値以上である特徴量を有する基準画像データの一部を連続物画像データであると判定する。
また、第2判定部455は、第2算出部454が算出した近似直線上に存在する残存物体を誤検出物体とみなして非検出対象であると判定する。また、第2判定部455は、設置物が連続している方向を示すように設置物画像データを近似させた近似直線上にある物体を示す基準画像データの一部を連続物画像データであると判定してもよい。
また、第2判定部455は、残存物体が基準画像及び比較画像それぞれの撮像位置の中間点との間に近似直線を挟む場合、当該残存物体を非検出対象であると判定する。つまり、第2判定部455は、物体を示す基準画像データの一部が、基準画像及び比較画像それぞれの撮像位置の中間点との間に近似直線を挟む場合、当該物体を示す基準画像データの一部を棄却対象画像データであると判定する。
また、第2判定部455は、着目フレームにおける棄却物体から残存物体までの距離と、着目フレーム以前のフレームにおける棄却物体(設置物)から残存物体までの距離との差が所定値以下である場合、当該残存物体を非検出対象(連続物画像データ)であると判定する。つまり、第2判定部455は、第1棄却部453が設置物画像データを棄却させた基準画像データの一部を、設置物画像データに基づいて、設置物に連続する物体を示す連続物画像データであると判定する。
また、第2判定部455は、基準画像及び比較画像が撮像される以前の時刻に撮像された基準画像のフレームと比較画像のフレームとの間で生じる視差の頻度分布に基づいて、第1判定部452が判定した設置物画像データを、基準画像及び比較画像の間で生じる視差の頻度分布に基づいて第1判定部452が判定した設置物画像データとみなしてもよい。つまり、第2判定部455は、過去の設置物画像データを判定に用いるように構成されてもよい。
ここで、画像の特徴量と認識処理(検出処理)について補足説明する。画像認識の方式としては、これまで種々のものが提案されているが、2つの画像の類似度を定量化できるものであれば任意の手法でよい。例えば、棄却物体をテンプレートとして、誤って検出対象であると判定された誤検出物体に対してテンプレートマッチングを行う方法がある。
また、SIFT(Scale−Invariant Feature Transform)などの局所特徴量を量子化したvisual wordsなるベクトルを用いて認識に利用するBag−of−Visual−Words法や、ニューラルネットを多層化したDeep Learningを用いる方法もある。
2つの物体の関係を定量化するには、類似度の他に距離尺度を使ってもよい。類似度の場合、スコアが高い方が2つの物体は類似していると考えられる。一方で、距離尺度を使用する場合、スコアが小さい方が2つの物体は類似していると考えられる。従って、最終的には、2つの物体から特徴量を算出し、それらを使って類似度、又は距離を算出して、このスコアが所定範囲に含まれる場合に、2つの物体は類似していると判定する。
第2棄却部456は、第2判定部455が非検出対象であると判定した新規検出物体の画像データを、基準画像の画像データから棄却する。つまり、第2棄却部456は、第1棄却部453が設置物画像データを棄却させた基準画像データから、第2判定部455が判定した連続物画像データ(棄却対象画像データ)を棄却する。
トラッキング部46(図4)は、新規検出物体が複数のフレームで連続して出現する場合に、追跡対象であるか否かを判定する。トラッキング部46は、新規検出物体が追跡対象である場合には、その情報を個体情報に付与する。
出力制御部32は、トラッキング部46が判定した結果に応じて、車両1のエンジンやブレーキなどの機構等を制御する。
次に、フローチャートを用いて、棄却部44を構成する要部の動作を説明する。図20は、第1算出部450の動作を示すフローチャートである。図20に示すように、第1算出部450は、基準画像及び比較画像を用いて、俯瞰マップを作成する(S100)。
次に、第1算出部450は、俯瞰マップ上で視野角が最小になる位置付近の領域、及び視野角が最大になる位置付近の領域それぞれで、視差頻度の高い点A、Bを算出する。つまり、第1算出部450は、図10等に示した両端点(A、B)を設定し(S102)、円周上の点(D)を順次に設定する(S104)。
次に、第1算出部450は、線分AD、線分BDが通過する点の頻度平均値を算出し(S106)、最大の頻度平均値を有する点(D)をDmaxに決定する(S108)。この点Dmaxは、先行車の最も近いコーナーの位置となる。
第1算出部450は、正面の車、又は側壁物を新規検出物体とした場合、2つの面の1つが極小さく検出されることがある。第1算出部450は、小さい面を削除する(S110)。
第1算出部450は、削除されていないAD、BDの面の角度を算出し(S112)、対応する画像枠において、各平面の左右の辺のX座標及びY座標の最大最小を算出する(S114)。
図21は、棄却部44の第1動作例を示すフローチャートである。まず、棄却部44は、俯瞰マップと新規検出物体情報を読み込む(S200)。次に、棄却部44は、俯瞰マップを使い、新規検出物体ごとに面角度棄却方式で棄却判定する(S202)。次に、棄却部44は、棄却物体と残存物体の画像特徴量を検出し、類似度を測定する(S204)。このとき、棄却部44が処理する新規検出物体の数や順序は任意に設定されてもよい。そして、棄却部44は、類似度が所定範囲内か否かで棄却判定を実施する(S206)。なお、S202とS204の処理は、棄却物体ごとに実施するが、ある棄却物体により、類似度が近いものと判定され棄却された残存物体に対しては、その他の棄却物体との判定処理を実施しなくてもよい。
次に、棄却部44の第2動作例について説明する。図22は、側壁物中に出現する誤認識物体を示す図である。図22(a)は、輝度画像上で側壁物中に出現する誤認識物体を示している。図22(b)は、俯瞰マップ上で側壁物中に出現する誤認識物体を示している。ここでは、側壁物に対して3つの新規検出物体(面A、面B、面C)が算出されたものとする。この中で、面Aと面Cは非検出対象として棄却され、面Bは角度が俯瞰マップ上の視差の分散の影響を受けて、面角度が正確に算出されなかったために棄却されていなかったとする。
この時、第2判定部455は、棄却された面C(又は、面A)を使って、俯瞰マップ上における面Cを近似する近似直線上に誤認識物体が存在するか否かを判定する。図22に示すように、面Bは、面Cを近似した近似直線上に存在することになるので、同じ側壁物の一部分と判定される(図23参照)。
図24は、棄却部44の第2動作例を示すフローチャートである。なお、棄却部44の各動作例において上述した処理と実質的に同じ処理には同一の符号が付してある。第2判定部455は、俯瞰マップ上の棄却物体を近似する近似直線上に存在する残存物体の有無を判定する(S300)。
例えば、図25に示すように、第2判定部455は、近似直線700上に複数の残存物体702のいずれが存在するかを判定する。ここで、近似直線700上に存在するか否かの判定は、近似直線700が残存物体702に一部分でも重なっていれば含まれると判定してもよいし(図26(a)参照)、残存物体702の中心から所定間隔離れた位置までに重なっていれば含まれると判定してもよい(図26(b)参照)。後者の条件下では、図26(a)に示した重なり方では、近似直線700上に残存物体702が存在しないと判定される。
そして、第2棄却部456は、近似直線上に存在している物体を誤検出物体と判定して棄却する(S302)。
図27は、棄却部44の第3動作例を模式的に示す図である。図27において、第2判定部455は、2つの画像センサ22の中間点(中心)からみて、上述した近似直線よりも外側に位置する面C及び面Dを非検出対象であると判定する。例えば、第2判定部455は、車道以外に存在する物体の認識が不要な場合、車道外(つまり側壁物よりも外側)に存在する物体を非検出対象であると判定する。
このように、棄却部44は、側壁物を車道と歩道の境界と仮定して、側壁物よりも外部に当たる領域に存在する物体を棄却することにより、車道に存在する物体を誤って棄却することなく、不要な物体を棄却することができる。
次に、棄却部44の第4動作例について説明する。側壁物は静止物体であるため、動画像のフレーム間で移動することはない。従って、2つのフレームそれぞれで検出される同一の物体間の距離は不変である。一方、移動する車両と移動しない側壁物との距離は、フレーム間で変化する。棄却部44の第4動作例では、この特徴を利用して、面角度棄却方式で棄却された側壁物の一部分である棄却物体と、棄却されなかった側壁物の一部分である誤検出物体の内、相互間の距離が変化しない物体を、側壁物の一部分と見なして棄却する。ここでの距離は、画像上の距離であってもよいし、実距離であってもよい。
図28は、棄却部44の第4動作例を模式的に示す図である。図28においては、棄却物体800及び検出対象(非棄却物体)802、804の位置関係と、棄却物体800及び誤検出物体806の位置関係を、それぞれ隣接するフレーム間で見たときの例が示されている。
図28の上図では、画像がフレームn−1からフレームnに変わったとき、棄却物体(側壁物)800は移動し、検出対象802、804は移動していない。検出対象802、804となっている車両は、それぞれ自車と同じ速度で走行していることになる。そして、画像がフレームn−1からフレームnに変わったとき、棄却物体800から検出対象802、804までの距離がそれぞれ変化している。
一方で、図28の下図では、棄却物体(側壁物)800と誤検出物体(側壁物)806は共に移動しないため、両者の距離は変化していない。多くの場合、連続するフレームでは同じ物体が検出される。前フレームでの棄却物体800と誤検出物体806(棄却物体でも可能)の位置関係を保存しておくことにより、誤検出物体を棄却することが可能である。
なお、車両1のCANデータを用いれば、前方に進んでいるのか、後方に進んでいるのかがわかるため、移動ベクトルから、前フレームでのペアの出現位置を推定することができる。従って、前フレームの情報を参照する時は、推定した位置に存在するペアのみを参照して処理対象とすることが可能である。これは、処理の高速化に寄与する。また、棄却部44は、処理対象とするペアを棄却された物体と、その物体を近似する近似直線上に存在する物体とに限定してもよい。これにより、側壁物上に含まれない物体を誤って棄却してしまうリスクを回避できる。また、上記は自車両が前方に走行している場合を想定しているが、逆方向、つまり、背走している際にも同様の方法で棄却処理を実施できる。
図29は、棄却部44の第4動作例を示すフローチャートである。第2判定部455は、着目フレームの新規検出物体のペアを示す新規検出物体情報を記憶部448に保存し、前フレームの新規検出物体のペアを示す新規検出物体情報を記憶部448から取得する(S400)。棄却部44の第4動作例では、最低でも2つの新規検出物体情報を使用するため、着目フレームで検出される物体数が1つ以下である場合は、これ以降の処理を全てスキップする。
この時、保存する情報は、最低でも1つ以上の棄却物体が含まれるようにペアを生成して、該当するペアを示す新規検出物体情報を保存する。これは、検出対象のペアの新規検出物体情報を誤って保存してしまうと、次のフレームにおいて、検出対象のペアが移動ベクトルから推定される位置に出現した場合に、このペアを誤って棄却してしまうリスクがあるためである。
また、棄却部44は、新規検出物体情報を保存するときに、常に1フレームの情報のみを保存してもよいし、数フレーム分の情報を保存させてもよい。1フレームの情報を保存し、1つ後のフレームでペアが検出されなかった場合、2つ後のフレームで参照する情報は2フレーム前の情報になる。
第2棄却部456は、着目フレーム、前フレーム内の新規検出物体ペアの距離を使って棄却判定を実施する(S402)。
図30は、棄却部44の第5動作例を模式的に示す図である。棄却部44は、第1動作例〜第4動作例に示した動作を行う場合に、着目フレームの情報だけでなく、1つ以上前のフレーム情報を合わせて使用するように構成されてもよい。
例えば、図30(a)に示したように、着目フレーム(n)があったとする。図30(a)では、フレーム(n)において残存物体808が存在している。図30(b)では、フレーム(n−1)において棄却物体810と、残存物体808が存在している。
図30(a)において、フレーム(n)内に存在する残存物体808は、側壁物の一部分(誤検出物体)であるにも関わらず、棄却物体810が同フレーム内に存在しないため、棄却することができない。そこで、棄却部44は、1つ以上前のフレーム情報を使用する。
図30(b)において、フレーム(n−1)に棄却物体810が存在しているため、この物体を使って、フレーム(n)内の誤検出物体である残存物体808を棄却することが可能である。
図30に示した例では、1つ前のフレーム情報を保存するようにしているが、2つ以上前のフレーム情報を保存するようにしてもよい。これは、1つ前のフレームで照明条件などの変化によって偶発的に棄却物体810が検出されないリスクがあるためである。2つ以上前のフレーム情報も使用することによって棄却物体810が検出されないリスクを回避することができる。なお、本実施形態においては、棄却部44は、棄却判定を行う機能までを有する構成であるが、これに限らず、後段の処理部(例えば、トラッキング部46)に対して出力する機能を有していてもよい。
1 車両
2 ステレオカメラ(撮像部)
2a、2b カメラ部
3 車両ECU
4 物体認識装置
21 レンズ
22 画像センサ
23 センサコントローラ
30 画像処理装置
32 出力制御部(制御部)
40 視差計算部
42 クラスタリング部
44 棄却部
46 トラッキング部
304 CPU
308 ROM
310 RAM
442 取得部
444 第1処理部
446 第2処理部
448 記憶部
450 第1算出部
451 対象面決定部
452 第1判定部
453 第1棄却部
454 第2算出部
455 第2判定部
456 第2棄却部
700 近似直線
702 残存物体
特開2005−311691号公報

Claims (15)

  1. 1つ以上の物体が撮像された基準画像と、前記基準画像とは異なる撮像位置から撮像された比較画像との間で生じる視差の頻度分布に基づいて、前記基準画像を示す基準画像データの一部を、予め定められた方向に連続するように設置された設置物を示す設置物画像データであると判定する第1判定部と、
    前記設置物画像データを前記基準画像データから棄却する第1棄却部と、
    前記第1棄却部が前記設置物画像データを棄却させた前記基準画像データの一部を、前記設置物画像データに基づいて、前記設置物に連続する物体を示す連続物画像データであると判定する第2判定部と、
    前記第1棄却部が前記設置物画像データを棄却させた前記基準画像データから、前記連続物画像データを棄却する第2棄却部と、
    を有することを特徴とする画像処理装置。
  2. 前記基準画像及び前記比較画像それぞれの撮像位置を通る直線に対して、前記基準画像に撮像された物体が備える面の角度を前記視差の頻度分布に基づいて算出する第1算出部
    を有し、
    前記第1判定部は、
    前記第1算出部が算出した面が1つである物体の面の角度に基づいて、前記基準画像データの一部を前記設置物画像データであると判定すること
    を特徴とする請求項1に記載の画像処理装置。
  3. 前記第1判定部は、
    前記第1算出部が算出した面を複数備える物体を示す画像データに対し、物体の画像データが示す複数の面それぞれの所定の基準に基づいて、前記設置物画像データであるか否かを判定すること
    を特徴とする請求項2に記載の画像処理装置。
  4. 前記第1判定部は、
    前記第1算出部が算出した面を複数備える物体を示す画像データに対し、物体の画像データが示す複数の面それぞれの長さの比に基づいて、前記設置物画像データであるか否かを判定すること
    を特徴とする請求項3に記載の画像処理装置。
  5. 前記第1判定部は、
    前記第1算出部が算出した面を複数備える物体を示す画像データに対し、物体の画像データが示す複数の面それぞれの面積の比に基づいて、前記設置物画像データであるか否かを判定すること
    を特徴とする請求項3に記載の画像処理装置。
  6. 前記第2判定部は、
    前記設置物画像データが有する特徴量に対し、類似度が所定範囲にある特徴量を有する前記基準画像データの一部を前記連続物画像データであると判定すること
    を特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。
  7. 前記第2判定部は、
    前記設置物が連続している方向を示すように前記設置物画像データを近似させた近似直線上にある物体を示す前記基準画像データの一部を前記連続物画像データであると判定すること
    を特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。
  8. 前記第2判定部は、
    物体を示す前記基準画像データの一部が、前記基準画像及び前記比較画像それぞれの撮像位置の中間点との間に前記近似直線を挟む場合、当該物体を示す前記基準画像データの一部を棄却対象画像データであると判定し、
    前記第2棄却部は、
    前記第1棄却部が前記設置物画像データを棄却させた前記基準画像データから、前記棄却対象画像データを棄却すること
    を特徴とする請求項7に記載の画像処理装置。
  9. 前記第2判定部は、
    前記基準画像及び前記比較画像が撮像される以前の時刻に撮像された基準画像のフレームと比較画像のフレームとの間で生じる視差の頻度分布に基づいて、前記第1判定部が判定した設置物画像データが示す設置物に対して、時間が経過しても前記基準画像データの一部が示す物体からの距離が所定値以下の変化である場合、当該物体を示す前記基準画像データの一部を前記連続物画像データであると判定すること
    を特徴とする請求項1乃至8のいずれか1項に記載の画像処理装置。
  10. 前記第2判定部は、
    前記基準画像及び前記比較画像が撮像される以前の時刻に撮像された基準画像のフレームと比較画像のフレームとの間で生じる視差の頻度分布に基づいて、前記第1判定部が判定した設置物画像データを、前記基準画像及び前記比較画像の間で生じる視差の頻度分布に基づいて前記第1判定部が判定した設置物画像データとみなすこと
    を特徴とする請求項1乃至8のいずれか1項に記載の画像処理装置。
  11. 前記第2棄却部による棄却結果を出力する出力部をさらに有すること
    を特徴とする請求項1乃至10のいずれか1項に記載の画像処理装置。
  12. 前記基準画像及び前記比較画像を撮像するステレオカメラと、
    請求項1〜11のいずれか1項に記載の画像処理装置と、
    を有することを特徴とする物体認識装置。
  13. 請求項1〜11のいずれか1項に記載の画像処理装置が有する前記第2棄却部が前記連続物画像データを棄却させた前記基準画像データに基づいて機器を制御する制御部
    を有することを特徴とする機器制御システム。
  14. 1つ以上の物体が撮像された基準画像と、前記基準画像とは異なる撮像位置から撮像された比較画像との間で生じる視差の頻度分布に基づいて、前記基準画像を示す基準画像データの一部を、予め定められた方向に連続するように設置された設置物を示す設置物画像データであると判定する工程と、
    前記設置物画像データを前記基準画像データから棄却する工程と、
    前記設置物画像データを棄却させた前記基準画像データの一部を、前記設置物画像データに基づいて、前記設置物に連続する物体を示す連続物画像データであると判定する工程と、
    前記設置物画像データを棄却させた前記基準画像データから、前記連続物画像データを棄却する工程と、
    を含むことを特徴とする画像処理方法。
  15. 1つ以上の物体が撮像された基準画像と、前記基準画像とは異なる撮像位置から撮像された比較画像との間で生じる視差の頻度分布に基づいて、前記基準画像を示す基準画像データの一部を、予め定められた方向に連続するように設置された設置物を示す設置物画像データであると判定するステップと、
    前記設置物画像データを前記基準画像データから棄却するステップと、
    前記設置物画像データを棄却させた前記基準画像データの一部を、前記設置物画像データに基づいて、前記設置物に連続する物体を示す連続物画像データであると判定するステップと、
    前記設置物画像データを棄却させた前記基準画像データから、前記連続物画像データを棄却するステップと、
    をコンピュータに実行させるための画像処理プログラム。
JP2015182354A 2015-09-15 2015-09-15 画像処理装置、物体認識装置、機器制御システム、画像処理方法及び画像処理プログラム Expired - Fee Related JP6569416B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015182354A JP6569416B2 (ja) 2015-09-15 2015-09-15 画像処理装置、物体認識装置、機器制御システム、画像処理方法及び画像処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015182354A JP6569416B2 (ja) 2015-09-15 2015-09-15 画像処理装置、物体認識装置、機器制御システム、画像処理方法及び画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2017058890A JP2017058890A (ja) 2017-03-23
JP6569416B2 true JP6569416B2 (ja) 2019-09-04

Family

ID=58391497

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015182354A Expired - Fee Related JP6569416B2 (ja) 2015-09-15 2015-09-15 画像処理装置、物体認識装置、機器制御システム、画像処理方法及び画像処理プログラム

Country Status (1)

Country Link
JP (1) JP6569416B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017094300A1 (ja) 2015-11-30 2017-06-08 株式会社リコー 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
WO2017115732A1 (ja) 2015-12-28 2017-07-06 株式会社リコー 画像処理装置、物体認識装置、機器制御システム、画像処理方法及び画像処理プログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6150164B2 (ja) * 2013-07-01 2017-06-21 株式会社リコー 情報検出装置、移動体機器制御システム、移動体及び情報検出用プログラム
JP2015148887A (ja) * 2014-02-05 2015-08-20 株式会社リコー 画像処理装置、物体認識装置、移動体機器制御システム及び物体認識用プログラム

Also Published As

Publication number Publication date
JP2017058890A (ja) 2017-03-23

Similar Documents

Publication Publication Date Title
JP6274557B2 (ja) 移動面情報検出装置、及びこれを用いた移動体機器制御システム並びに移動面情報検出用プログラム
US10776946B2 (en) Image processing device, object recognizing device, device control system, moving object, image processing method, and computer-readable medium
JP6184877B2 (ja) 車両用外界認識装置
JP7206583B2 (ja) 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法およびプログラム
JP5561064B2 (ja) 車両用対象物認識装置
JP6150164B2 (ja) 情報検出装置、移動体機器制御システム、移動体及び情報検出用プログラム
US10748014B2 (en) Processing device, object recognition apparatus, device control system, processing method, and computer-readable recording medium
CN109960999B (zh) 车外环境识别装置
JP6516012B2 (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
CN102842038A (zh) 环境识别装置及环境识别方法
JPWO2017145634A1 (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
JP5073700B2 (ja) 物体検出装置
US11054245B2 (en) Image processing apparatus, device control system, imaging apparatus, image processing method, and recording medium
US11145063B2 (en) Image processing apparatus
JP4123138B2 (ja) 車両検知方法及び車両検知装置
JP2012252501A (ja) 走行路認識装置及び走行路認識用プログラム
JP6701905B2 (ja) 検出装置、視差値導出装置、物体認識装置、機器制御システム、およびプログラム
JP6569416B2 (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法及び画像処理プログラム
JP6683245B2 (ja) 画像処理装置、画像処理方法、画像処理プログラム、物体認識装置及び機器制御システム
JP2018092608A (ja) 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法およびプログラム
JP4788399B2 (ja) 歩行者検出方法、装置、およびプログラム
JP2020126304A (ja) 車外物体検出装置
WO2018097269A1 (en) Information processing device, imaging device, equipment control system, mobile object, information processing method, and computer-readable recording medium
JP7005762B2 (ja) カメラ装置の標識認識方法及び標識認識装置
KR102681321B1 (ko) 듀얼 카메라를 이용하여 거리를 계산하는 고속도로 주행지원 시스템의 성능 평가 장치와 그 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180808

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190620

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190709

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190722

R151 Written notification of patent or utility model registration

Ref document number: 6569416

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees