以下、添付図面を参照して、本願の開示する物体認識装置および物体認識方法の実施形態を詳細に説明する。なお、以下に示す実施形態によりこの発明が限定されるものではない。
実施形態に係る物体認識方法は、車両に設けられた撮像装置によって車両の前方を撮像した画像から認識対象物の形状を認識し、かかる形状が存在する領域に対して選択的に認識対象物の種類を認識するものである。
なお、認識対象物の認識は、車両前方を撮像した画像に限定されるものではなく、車両の後方や側方を撮像した画像から認識してもよい。また、撮像装置は、例えば、ドライブレコーダが備えるカメラ、スマートフォン等のモバイル機器に搭載されたカメラモジュール、デジタルカメラ等である。
また、認識対象物は、所定形状の静止物体であり、上述の道路標識の他には、例えば、飲食店等の看板等を含む。また、物体認識装置が搭載される車両は、例えば、自家乗用車やタクシー等の自動車、バイク、バス、トラック等である。
以下では、まず、図1を参照して、撮像装置によって撮像された画像から一般的な手法で物体を認識する装置(以下、一般的な装置と記載)による物体認識方法について説明した後、図2を参照して、実施形態に係る物体認識方法について説明する。図1は、一般的な装置による物体認識方法を示す説明図である。図2は、実施形態に係る物体認識方法を示す説明図である。
なお、図1では、一般的な装置が、図1に(a)で示す、カメラによって撮像された車両前方の画像Pに含まれる40km速度制限Mを認識する場合について説明する。また、一般的な装置は、図1に(b)〜(d)で示す、進入禁止100、30km速度制限101、40km速度制限102の画像パターンを記憶しているものとする。
図1に(a)で示すように、一般的な装置は、まず、車両に設けられたカメラから車両前方を撮像した画像Pを取得する。続いて、例えば、パターンマッチングによって、画像P内から記憶した画像パターンと同じ道路標識が存在するかを探索する。
具体的には、図1に(b)で示すように、進入禁止100の画像パターンを使用して、画像全体(ハッチングされた領域)から、進入禁止の道路標識を探索する。そして、進入禁止100の画像パターンが発見されない場合、画像P内に進入禁止の道路標識は存在しないと判定する。
続いて、図1に(c)で示すように、30km速度制限101の画像パターンを使用して、同様に画像全体から、30km速度制限の道路標識を探索する。そして、30km速度制限101の画像パターンが発見されない場合、画像Pに30km速度制限の道路標識は存在しないと判定する。
続いて、図1に(d)で示すように、40km速度制限102の画像パターンを使用して、同様に画像全体から、40km速度制限Mの道路標識が存在するかを探索する。そして、40km速度制限102の画像パターンを発見した場合、画像Pに40km速度制限Mの道路標識が存在すると判定する。
このように、一般的な装置による物体認識方法では、40km速度制限Mの道路標識を認識するまで、繰り返し画像全体を探索範囲としなければならず、処理量(ハッチングされた領域)が嵩むことがあった。
そこで、図2に示すように、実施形態に係る物体認識方法では、まず、カメラから取得した画像Pから40km速度制限Mの外形である円形24が存在する領域を抽出することとする。そして、抽出した領域に対してのみ道路標識の種類を認識する認識処理を実行する。
なお、物体認識方法を実行する物体認識装置は、図2に(a)〜(d)で示すように、円形24、進入禁止100a、30km速度制限101aおよび40km速度制限102aを記憶しているものとする。
また、円形24とは、進入禁止100、30km速度制限101および40km速度制限102(図1の(b)〜(d)参照)に共通する外形である。また、進入禁止100a、30km速度制限101aおよび40km速度制限102aは、進入禁止100、30km速度制限101および40km速度制限102から外形である円形24の周辺部分を除いた画像パターンである。
以下から、実施形態に係る物体認識方法について具体的に説明する。図2に(a)で示すように、物体認識装置は、カメラから画像Pを取得すると、まず、円形24の画像パターンを使用して、画像P全体(ハッチングされた領域)から円形を探索する。
そして、図2に(b)で示すように、物体認識装置は、円形24の画像パターンを発見した場合、円形が存在する領域を対象領域31として抽出する。対象領域31とは、道路標識の種類を探索する対象となる範囲のことである。
続いて、図2に(b)で示すように、進入禁止100aの画像パターンを使用して、抽出された対象領域31のみから、進入禁止の道路標識を探索する。そして、進入禁止100aの画像パターンが発見されない場合、画像Pに進入禁止の道路標識が存在しないと判定する。
続いて、図2に(c)で示すように、30km速度制限101aの画像パターンを使用して、同様に対象領域31のみから、30km速度制限の道路標識を探索する。そして、30km速度制限101aの画像パターンが発見されない場合、画像Pに30km速度制限の道路標識が存在しないと判定する。
そして、図2に(d)で示すように、40km速度制限102aの画像パターンを使用して、同様に対象領域31のみから、40km速度制限Mの道路標識を探索する。そして、40km速度制限102aの画像パターンを発見した場合、画像Pに40km速度制限Mの道路標識が存在すると判定する。
つまり、物体認識装置は、画像全体から円形24が存在する対象領域31を抽出することによって、対象領域31を集中的に探索することができるため、道路標識の種類を効率的に認識することができる。
なお、道路標識の形状および種類の認識は、画像パターンを用いたパターンマッチングに限定されるものではなく、例えば、道路標識の画像を機械学習することで作成される辞書情報を用いて道路標識の形状および種類を認識してもよい。以下では、かかる機械学習を用いた物体認識装置について説明することとする。
次に、図3を参照して、実施形態に係る物体認識装置について説明する。図3は、実施形態に係る物体認識装置1の構成を示すブロック図である。図3に示すように、物体認識装置1は、カメラ2と、走行状態検出装置3と、車載装置4とに接続される。
カメラ2は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を備える撮像装置であり、自車の前方を撮像する位置に設置される。そして、カメラ2によって撮像された画像は、物体認識装置1へ出力される。
走行状態検出装置3は、例えば、車速センサや、ナビゲーション装置であり、車両の走行状態を検出する。車速センサは、車両の車速パルス信号を計測することで車両の走行速度を検出し、かかる走行速度を示す車速情報として物体認識装置1へ出力する。
また、ナビゲーション装置は、電子地図データである地図情報およびGPS(Global Positioning System)衛星から受信した車両の位置情報を物体認識装置1へ出力する。
車載装置4は、例えば、カメラ2によって撮像された画像を表示する車載のディスプレイであり、カメラ2の画像に物体認識装置1が認識した道路標識を囲む枠画像を重畳させて強調表示することができる。なお、車載装置4は、ディスプレイに限定されず、例えば、ドライブレコーダであってもよい。
車載装置4がドライブレコーダの場合、ドライブレコーダが備えるカメラによって撮像された画像を記録する際に、物体認識装置1が認識した道路標識の位置や種類を関連付けて記録する。
実施形態に係る物体認識装置1は、制御部10と、記憶部20とを備える。まず、記憶部20について説明する。記憶部20は、不揮発性メモリやハードディスクドライブといった記憶デバイスで構成される記憶部であり、優先順位情報21、辞書情報22を記憶する。
優先順位情報21は、道路標識の種類の認識順序の優先順位に関する情報であり、後述する順序設定部14によって、優先順位情報21の中から車両の走行状態に応じて認識順序の優先順位が決定される。
辞書情報22は、画像Pに写る物体が道路標識か否かを判定する基準となる情報であり、道路標識の形状を判定する基準となる形状情報22a、道路標識の種類を判定する基準となる種類情報22bを含む情報である。
また、形状情報22aおよび種類情報22bは、機械学習によって予め作成されて記憶部20に記憶される。ここで、形状情報22aおよび種類情報22bの作成手順について、簡単に説明する。
まず、形状情報22aを作成する場合、所定形状(例えば、円形)の道路標識の画像と所定形状以外の物体の画像とを学習データとしてそれぞれ所定数(例えば、数100〜数1000枚の画像)準備する。準備する画像のサイズは、例えば、36ピクセル×36ピクセルのサイズに統一する。
続いて、準備した各画像から、例えば、HOG(Histgram of Oriented Gradient)特徴量を抽出する。そして、上述の準備した画像を、抽出したHOG特徴量に基づいて、2次元平面上にプロットする。
続いて、例えば、SVM(Support Vector Machine)等の識別器によって、2次元平面上における所定形状の道路標識の画像と所定形状以外の物体の画像とを分離する分離線を生成する。
そして、かかる2次元平面の座標軸および識別器によって生成された分離線の情報が、画像Pに含まれる画像が所定形状の道路標識か否かの判定基準として使用される形状情報22aとなる。なお、準備した画像から抽出する特徴量は、HOG特徴量に限定されず、例えば、SIFT(Scale Invariant Feature Transform)特徴量であってもよい。また、用いる識別器は、SVMに限定されず、例えば、アダブースト(AdaBoost)等の識別器であってもよい。
また、種類情報22bを作成する場合、所定種類の道路標識の画像(例えば、40km速度制限)と、かかる種類の道路標識以外の画像とを学習データとしてそれぞれ所定数(例えば、数100〜数1000枚の画像)準備する。
なお、準備した画像から抽出する特徴量および2次元平面を分離する線を生成する識別器は、上述の形状情報22aを生成する場合と同様である。そして、識別器によって、速度制限40kmの種類の道路標識の画像とそれ以外の画像とを2次元平面上において分離する分離線が生成される。
そして、かかる2次元平面の座標軸および識別器によって生成された分離線の情報が、画像Pに含まれる画像が所定種類の道路標識か否かの判定基準として使用される種類情報22bとなる。なお、種類情報22bに含まれる座標軸は、道路標識の種類によらず同一であり、分離線は、道路標識の種類に応じて異なる。
これにより、後述する領域抽出部13および認識部15は、辞書情報22である形状情報22aおよび種類情報22bを使用することによって、画像P内の36ピクセル×36ピクセル内の画像の道路標識の形状およびその種類を認識することができる。
制御部10は、拡縮画像生成部11と、特徴抽出部12と、領域抽出部13と、順序設定部14と、認識部15と、出力部16とを備える。
制御部10は、例えば、CPU(Central Processing Unit)、RAM(Random Access Memory)およびROM(Read Only Memory)を備えるマイクロコンピュータである。かかるCPUは、たとえば、ROMに予め記憶されたプログラムに従い、演算処理を行うことで、上述した拡縮画像生成部11、特徴抽出部12、領域抽出部13、順序設定部14、認識部15および出力部16として機能する。
拡縮画像生成部11は、カメラ2から入力される画像Pについて、それぞれ拡縮率が異なる複数の拡大画像および縮小画像(例えば、25枚の拡縮画像)を生成して、特徴抽出部12へ出力する。
特徴抽出部12は、生成した拡縮画像から、例えば、HOG特徴量を抽出する。なお、特徴抽出部12によって抽出される特徴量は、形状情報22aの生成時に用いた特徴量(例えば、HOG特徴量)と統一する。そして、特徴抽出部12は、抽出した各拡縮画像の特徴量の情報を領域抽出部13へ出力する。
なお、特徴抽出部12による特徴量の抽出は、HOG特徴量に限定されず、例えば、ハフ(Hough)変換を用いてもよい。ハフ変換を用いる場合、後述する領域抽出部13は、パターンマッチングによって道路標識の形状を認識する。
領域抽出部13は、特徴抽出部12によって抽出された特徴量の情報と、形状情報22aとに基づいて、認識する形状が存在する対象領域31を抽出する。ここで、図4を参照して、領域抽出部13による対象領域31の抽出処理について具体的に説明する。図4は、領域抽出部13による対象領域31の抽出処理を示す説明図である。
図4に(a)で示すように、領域抽出部13は、まず、所定拡縮率の拡縮画像Rの領域全体に対して40km速度制限Mを探索するための複数の探索領域An(n=10〜N。以下、複数の探索領域Anをまとめて探索領域Aとも記載する)を設定する。
設定される探索領域Aのサイズは、例えば、36ピクセル×36ピクセルであり、形状情報22aを生成するために準備した画像のサイズと統一する。
そして、図4に(b)で示すように、領域抽出部13は、各探索領域Aから抽出される特徴量に基づいて、探索領域Aを形状情報22aに含まれる座標軸で形成される2次元平面上にプロットする。つまり、探索領域Aのサイズと形状情報22aを生成するために準備した画像のサイズとを揃えることで、かかる2次元平面上へのプロットが可能となる。なお、図4に(b)で示すグラフは、抽出する特徴量を表す縦軸および横軸で構成されるものとする。
そして、領域抽出部13は、プロットされた探索領域Aが、形状情報22aの分離線Sによって分離された領域のうち、円形を示す領域40およびそれ以外の形状を示す領域41のいずれに位置するかを判定する。
そして、図4に(c)で示すように、領域抽出部13は、円形を示す領域40に位置する探索領域A21(図4の(b)参照)を円形24が存在する対象領域31として抽出する。
ここで、形状情報22aは、上述したように、36ピクセル×36ピクセル内の画像が円形であるか否かを判別するために使用される情報である。そして、画像Pにおける円形の道路標識は、自車両からの距離によってサイズが異なるため、サイズが36ピクセル×36ピクセルとは限らない。
このため、領域抽出部13は、画像Pから円形が存在する対象領域31を抽出することができない場合もあるが、拡縮画像生成部11から入力される拡縮率が異なる複数の拡縮画像を探索することによって、対象領域31を抽出することができる。
なお、図4の(a)で示す探索領域Aの位置や数は、理解を容易にするために一部を示しているに過ぎず、実際には、探索領域Aの一部の領域を重複させることで拡縮画像R内を隈無く探索できるように設定されている。
そして、領域抽出部13は、抽出した対象領域31が存在する拡縮画像Rの拡縮率および拡縮画像R内での対象領域31の位置に関する情報を認識部15へ出力する。位置に関する情報とは、例えば、XY直交座標系に変換した拡縮画像Rにおける対象領域31が存在する位置のXY座標値である。
順序設定部14は、車両の走行状態に基づいて道路標識の種類の認識順序の優先順位を設定する。具体的には、まず、順序設定部14は、カメラ2によって撮像された画像Pと、走行状態検出装置3から走行状態を示す走行状態情報とを取得する。
また、順序設定部14は、たとえば、走行状態情報である車速情報に基づいて、車両の走行速度を取得する。また、走行状態情報である地図情報および位置情報に基づいて、車両の走行している道路の種別を示す道路情報を取得する。
また、順序設定部14は、カメラ2から取得した画像Pに基づいて、車両が走行している道路の車線を区画する区画線を検出することで、車両が走行している車線や、かかる車線を逸脱したか否か等の情報を取得する。
そして、順序設定部14は、取得した各種情報に基づいて、優先順位情報21の中から車両の走行状態に応じた道路標識の種類の認識順序の優先順位を選択する。そして、順序設定部14は、選択した認識順序の優先順位を示す情報を認識部15へ出力する。なお、優先順位情報21の具体例については、図6を参照して後述する。
認識部15は、画像Pの領域全体のうち、領域抽出部13によって抽出された対象領域31に対して選択的に認識対象物である道路標識の種類の認識処理を実行する。具体的には、認識部15は、まず、領域抽出部13から対象領域31が存在する拡縮画像Rの拡縮率および拡縮画像R内での対象領域31の位置に関する情報に基づいて、対象領域31のサイズおよび位置を特定する。
続いて、認識部15は、特定した対象領域31に対してのみ、辞書情報22に含まれる種類情報22bに基づいて、道路標識の種類を認識する認識処理を実行する。ここで、図5を参照して、かかる種類情報22bおよび形状情報22aを含む辞書情報22について具体的に説明する。
図5は、辞書情報22を示す説明図である。図5に示すように、辞書情報22は、例えば、「形状」、「標識」、「名称」といった項目を含む。なお、図5に示す、辞書情報22は一例であり、これに限定されるものではない。
また、図5には、説明を容易にするため、道路標識の形状や標識の種類をシンボル画像として示しているが、実際には、図5に示した「形状」や「標識」を判定するための座標軸および分離線を示す情報が格納されている。
図5に示す「形状」は、形状情報22aであり、道路標識の形状を判定するための座標軸および分離線の情報である。「標識」は、種類情報22bであり、「形状」に対応する形状の道路標識の種類を認識するための座標軸および分離線の情報である。「名称」は、対応する「標識」の道路標識の名称を示す。
つまり、認識部15は、特定した対象領域31の特徴量を抽出し、かかる特徴量に基づいて、種類情報22bに含まれる座標軸によって形成される2次元平面上に、対象領域31をプロットする。
そして、認識部15は、2次元平面上に種類情報22bに含まれる各道路標識の種類の分離線を引くことで、対象領域31のプロット位置が、特定の道路標識の種類を示す領域およびそれ以外の物体を示す領域のいずれに位置するかを判定することで、道路標識の種類を認識する。
このように、道路標識に共通する外形が存在する対象領域31に絞ることで、各道路標識の種類を認識する処理量を抑えることができるため、道路標識の種類を効率的に認識することができる。
また、認識部15は、拡縮率が異なる対象領域31の拡縮画像を生成してもよい。そして、拡縮画像毎に特徴量を抽出し、道路標識の種類を認識する。この時に生成する拡縮画像の数は、上述の拡縮画像生成部11が生成する数より少ない数(例えば、3枚の拡縮画像)でよい。
これは、例えば、対象領域31の位置が何らかの原因でズレた場合に、道路標識の種類が認識されないことがあるためである。このため、対象領域31の拡縮画像を生成しておくことで、道路標識の種類の認識精度を向上することができる。
また、認識部15は、順序設定部14から入力される認識順序の優先順位を示す情報に基づいて、道路標識の種類の認識順序の優先順位を変更する。ここで、認識部15による認識順序の優先順位について、図6を参照して具体的に説明する。
図6は、認識順序の優先順位を含む優先順位情報21を示す説明図である。なお、図6は、一例であり、これに限定されるものではない。なお、認識部15は、図6に示す優先順位情報21のうち、順序設定部14によって選択された認識順序の優先順位に従う。
図6に示すように、優先順位情報21は、「道路」、「自車速」、「認識順序」といった項目を含む。「道路」は、車両が走行している道路の種別である。「自車速」は、車両の走行速度である。「認識順序」は、認識部15による道路標識の認識順序を示す。
つまり、認識部15は、自車両が走行している道路の種別や自車両の走行速度などの走行状態情報に基づいて道路標識の種類の認識順序の優先順位を変更する。具体的には、図6に示すように、認識部15は、順序設定部14が、自車両の走行している道路が高速道路であることを示す道路情報を取得すると、60km以上の速度制限の優先順位を上げた認識順序で道路標識の種類を認識する。
また、自車両が走行している道路が一般道であることを示す道路情報を取得した場合は、60km以下の速度制限の優先順位を上げる。つまり、走行する道路の種別に応じて存在する可能性が高い種類の道路標識に絞ることで処理量を低減することができる。
また、認識部15は、順序設定部14が、自車両が高速道路を時速80kmで走行していることを示す車速情報を取得すると、80km速度制限をまず始めに認識する。そして認識部15は、80km速度制限に近い、70km速度制限、60km速度制限、進入禁止の順に認識していく。
これは、運転者の特性上、速度制限に近い速度で走行する場合が多いためである。例えば、普段から速度制限より10km程度遅く運転するような運転者であれば、このような特性を考慮して、走行速度より10km速い速度制限を優先して認識するようにしてもよい。
このように、車両の走行速度を利用することで、存在する可能性の高い速度制限の種類から始められるため、より効率的に認識処理を実行することができる。
したがって、認識部15は、車両の走行状態に基づいて、認識順序の優先順位を変更することで、道路標識の種類を認識する認識処理の回数を抑えられるため、より効率的に道路標識を認識することができる。
また、認識部15は、例えば、カメラ2から所定間隔で連続して入力される画像(以下、フレーム画像と記載)において、1フレーム前の時刻のフレーム画像の認識結果である速度制限の種類を優先して認識してもよい。
この場合、認識部15は、かかる認識結果を記憶部20に記憶し、次の時刻のフレーム画像において、順序設定部14が記憶した認識結果を取得することで、優先順位を変更する。
また、図6に示すように、認識部15は、順序設定部14が、自車両が交差点や分岐点へ接近していることを示す道路情報を取得した場合、進入禁止の道路標識を優先して認識するようにする。
なお、交差点や分岐点において進入禁止が設けられる位置に応じて進入禁止の優先順位を変更するようにしてもよい。かかる場合について図7を参照して、具体的に説明する。
図7は、交差点における車両および進入禁止の位置関係を示す図である。なお、図7には、実施形態に係る物体認識装置1を搭載した車両Cが、進入禁止M1、M2が存在する交差点へ接近する場面を一例として示す。
また、図7には、車両Cが走行する車線50および対向車線51を示し、車両Cから見て、車線50側の交差点手前に左折を禁止する進入禁止M1を、対向車線51側の交差点奥に右折を禁止する進入禁止M2を示している。
かかる場合において、車両Cの運転者が、進入禁止M1を見落として誤って左折してしまう可能性は高いため、認識部15は、領域抽出部13によって車線50側から円形が存在する対象領域31が抽出された場合、進入禁止の優先順位を上げる。
一方で、車両Cの運転者が、進入禁止M2を見落としたとしても、わざわざ対向車線51を横断して進入禁止M2の道路へ右折する可能性は低いにも関わらず、進入禁止M2についても優先順位を上げてしまうと処理量が嵩むおそれがある。
そこで、認識部15は、領域抽出部13によって対向車線51側から円形が存在する対象領域31が抽出された場合、進入禁止の優先順位を下げることとする。これにより、不要な認識処理によって、処理量が嵩むのを抑えることができる。
なお、対象領域31の位置が、車線50側であるか対向車線51側であるかの判定は、順序設定部14が取得する区画線の情報に基づいて、画像内におけるかかる区画線と対象領域31との位置関係を特定することで判定することができる。
なお、図7の状況において、順序設定部14が、車両Cが対向車線51を横断して右折することを示す走行状態情報を取得した場合、進入禁止の優先順位を上げてもよい。かかる走行状態情報としては、例えば、車両Cが中央区画線52を逸脱したか否かの判定情報や、車両Cと進入禁止M2との距離の情報がある。
つまり、認識部15は、順序設定部14がカメラ2の画像に基づき車両Cと進入禁止M2との距離が所定距離以下となったことを示す情報を取得した場合、進入禁止M2の優先順位を上げるようにする。
つまり、認識部15は、車両Cの走行に伴って変化する車両Cと道路標識との距離に基づいて、進入禁止M2の優先順位を変更する。これにより、不要な認識処理を低減しつつ必要な場合のみ認識処理の優先順位を上げられるため、より効率的に認識処理を実行することができる。そして、認識部15は、認識結果を出力部16へ出力する。
出力部16は、車載装置4の形態に応じて認識部15の認識結果を示す情報を変換して出力する。例えば、車載装置4がディスプレイの場合、認識した道路標識を囲む枠画像を生成し、カメラ2の画像とかかる枠画像とを重畳した合成画像を出力する。
また、出力部16は、車載装置4が、ドライブレコーダの場合、カメラ2の画像と認識した道路標識の位置や種類とを関連付けた走行履歴情報を出力する。そして、ドライブレコーダがかかる走行履歴情報を記録することで、事後的に認識結果を確認することができる。
次に、実施形態に係る物体認識装置1が実行する認識処理の処理手順について、図8を用いて説明する。図8は、実施形態に係る物体認識装置1が実行する認識処理の処理手順を示すフローチャートである。
図8に示すように、拡縮画像生成部11は、カメラ2によって撮像された画像Pを取得し、かかる画像Pの拡縮画像を生成する(ステップS101)。つづいて、特徴抽出部12は、各拡縮画像から、例えば、HOG特徴量を用いて特徴量を抽出する(ステップS102)。
つづいて、領域抽出部13は、特徴抽出部12が抽出した特徴量と、形状情報22aとに基づいて、認識対象物の形状が存在する対象領域を抽出する(ステップS103)。つづいて、認識部15は、種類情報22bに基づいて、画像Pの領域全体のうち、領域抽出部13によって抽出された対象領域31に対して選択的に認識対象物の認識処理を実行し(ステップS104)、処理を終了する。
また、実施形態に係る物体認識装置1は、図9に一例として示す構成のコンピュータ200で実現することができる。図9は、物体認識装置1の機能を実現するコンピュータの一例を示すハードウェア構成図である。
コンピュータ200は、CPU(Central Processing Unit)210と、ROM(Read Only Memory)220と、RAM(Random Access Memory)230と、HDD(Hard Disk Drive)240とを備える。また、コンピュータ200は、メディアインターフェイス(I/F)250と、通信インターフェイス(I/F)260と、入出力インターフェイス(I/F)270とを備える。
なお、コンピュータ200は、SSD(Solid State Drive)を備え、かかるSSDがHDD240の一部または全ての機能を実行するようにしてもよい。また、HDD240に代えてSSDを設けることとしてもよい。
CPU210は、ROM220およびHDD240の少なくとも一方に格納されるプログラムに基づいて動作し、各部の制御を行う。ROM220は、コンピュータ200の起動時にCPU210によって実行されるブートプログラムや、コンピュータ200のハードウェアに依存するプログラムなどを格納する。HDD240は、CPU210によって実行されるプログラムおよびかかるプログラムによって使用されるデータ等を格納する。
メディアI/F250は、記憶媒体280に格納されたプログラムやデータを読み取り、RAM230を介してCPU210に提供する。CPU210は、かかるプログラムを、メディアI/F250を介して記憶媒体280からRAM230上にロードし、ロードしたプログラムを実行する。あるいは、CPU210は、かかるデータを用いてプログラムを実行する。記憶媒体280は、例えばDVD(Digital Versatile Disc)などの光磁気記録媒体やSDカード、USBメモリなどである。
通信I/F260は、ネットワーク290を介して他の機器からデータを受信してCPU210に送り、CPU210が生成したデータを、ネットワーク290を介して他の機器へ送信する。あるいは、通信I/F260は、ネットワーク290を介して他の機器からプログラムを受信してCPU210に送り、CPU210がかかるプログラムを実行する。
CPU210は、入出力I/F270を介して、ディスプレイ等の車載装置4を制御する。CPU210は、入出力I/F270を介して、カメラ2と、走行状態検出装置3からデータを取得する。また、CPU210は、生成したデータを入出力I/F270を介して車載装置4に出力する。
例えば、コンピュータ200が物体認識装置1として機能する場合、コンピュータ200のCPU210は、RAM230上にロードされたプログラムを実行することにより、拡縮画像生成部11、特徴抽出部12、領域抽出部13、順序設定部14、認識部15および出力部16の各機能を実現する。
コンピュータ200のCPU210は、例えばこれらのプログラムを記憶媒体280から読み取って実行するが、他の例として、他の装置からネットワーク290を介してこれらのプログラムを取得してもよい。また、HDD240は、記憶部20が記憶する優先順位情報21、辞書情報22を記憶することができる。
上述してきたように、実施形態に係る物体認識装置1は、領域抽出部13と、認識部15とを備える。領域抽出部13は、車両に設けられたカメラ2によって撮像された画像から、特徴量抽出部12によって抽出された特徴量に基づいて、認識対象物の形状が存在する対象領域31を抽出する。認識部15は、画像Pの領域全体のうち、領域抽出部13によって抽出された対象領域31に対して選択的に認識対象物の認識処理を実行する。
これにより、実施形態に係る物体認識装置1は、認識対象物の種類を効率的に認識することができる。
なお、上述の実施例では、道路標識を認識対象物の一例として示したが、これに限定されるものではない。ここで、図10を参照して、変形例に係る辞書情報22について説明する。図10は、変形例に係る辞書情報22の説明図である。
一般に、道路の周辺に存在する飲食店等は、運転者へ店舗の存在を示すために、所定形状の看板が道路の近傍に設置されていたり、また、形状についても特定の文字を模した看板等もあり、かかる看板によって店舗を認識可能である場合が多い。
そこで、かかる看板の画像を学習データとして、機械学習することで、図10に示す特定の店舗の看板の特徴を示す辞書情報22が生成される。そして、領域抽出部13は、かかる看板の形状が存在する対象領域31を抽出する。
続いて、認識部15は、画像Pの領域全体のうち、領域抽出部13によって抽出された対象領域31に対して選択的に看板の内容(種類)を認識する認識処理を実行する。これにより、物体認識装置1は、認識対象物が看板等であっても、認識処理を効率的に実行することができる。
また、実施形態の変形例に係る物体認識装置1によれば、例えば、図10に示すような一般的な矩形の看板であっても、看板の内容に特徴があれば、かかる看板の店舗を「○○寿司」として認識することができる。
また、特定の文字、例えば「X」を模したような特徴的な形状であれば、看板の形状を認識することで、看板の内容の認識処理を簡便しても特定の店舗として「Xカレー」を認識することができる。
なお、上述した対象領域31の領域は、外形に接するような矩形の領域(図4参照)に限定されるものではなく、例えば、道路標識の円形から所定距離外側の矩形の領域であってもよい。また、対象領域31の形状も、矩形に限定されず、円形や、認識対象物の形状と同じ形状であってもよい。
また、上記では、物体認識装置1と車載装置4とは別の装置であるものとして説明したが、これらを一体化してもよい。すなわち、上述した物体認識装置1と車載装置4との双方の機能を一つの装置が備えていてもよい。
さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。