[go: up one dir, main page]

JP6123975B2 - 特徴量抽出装置及び特徴量抽出方法 - Google Patents

特徴量抽出装置及び特徴量抽出方法 Download PDF

Info

Publication number
JP6123975B2
JP6123975B2 JP2011167232A JP2011167232A JP6123975B2 JP 6123975 B2 JP6123975 B2 JP 6123975B2 JP 2011167232 A JP2011167232 A JP 2011167232A JP 2011167232 A JP2011167232 A JP 2011167232A JP 6123975 B2 JP6123975 B2 JP 6123975B2
Authority
JP
Japan
Prior art keywords
feature
image
feature amount
converted
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011167232A
Other languages
English (en)
Other versions
JP2013030104A (ja
JP2013030104A5 (ja
Inventor
裕一 松本
裕一 松本
ヘーン・チャー・ケーン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2011167232A priority Critical patent/JP6123975B2/ja
Priority to US14/235,178 priority patent/US9367567B2/en
Priority to PCT/JP2012/069532 priority patent/WO2013018816A2/en
Publication of JP2013030104A publication Critical patent/JP2013030104A/ja
Publication of JP2013030104A5 publication Critical patent/JP2013030104A5/ja
Application granted granted Critical
Publication of JP6123975B2 publication Critical patent/JP6123975B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5838Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • G06V10/507Summing image-intensity values; Histogram projection analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)

Description

本発明は、入力画像から人物や車、バイクといった一般物体を検出するための特徴量を抽出する特徴量抽出装置及び特徴量抽出方法に関する。
入力画像に対して画像変換を行い、得られた変換画像から特徴量の抽出を行い、SVM(Support Vector Machine)やBoosting等の統計的学習方法を用いて物体を検出する装置が案出されている。特徴量として、例えば特許文献1、非特許文献1及び2に記載されているものなどがある。非特許文献1に記載されている特徴量は、LBP(Local Binary Patterns)特徴量と呼ばれており、非特許文献2に記載されている特徴量は、非特許文献1に記載されたLBP特徴量を改良したものであり、Extended Set of Local Binary Patternsと呼ばれている。
特開2006−350645号公報
The Local Binary Pattern Approach to Texture Analysis-Extensions and Applications Extended Set of Local Binary Patterns for Rapid Object Detection
しかしながら、上述した非特許文献1,2及び特許文献1のそれぞれで開示された特徴量においては、以下に述べるような課題があった。
(1)非特許文献1に記載されている特徴量は、複数対の画素値同士の大小比較を行う局所的な特徴量であり、ノイズに弱く、大局的な情報が不足している。例えば、大小比較を行う複数対の画素値同士の中で、ノイズにより大小関係が異なる対がひとつでもあった場合、得られる特徴量は全く異なるものとなってしまう。
(2)特許文献1に記載されている特徴量は、複数の領域内の画素平均値同士の大小比較を行う大局的な特徴量であり、非特許文献1に記載されている特徴量の大局的情報不足を補う反面、大局的過ぎる傾向もある。
(3)非特許文献1、及び特許文献1それぞれに記載された特徴量に共通する課題として、これらの特徴量は、人物の顔の検出などにはある程度の検出精度が得られるものの、一般的に顔検出よりも検出難易度が高いとされている人物や車、バイクなどの一般物体の検出に対しては、十分な検出精度が得られないことが挙げられる。例えば、人物の顔の場合は、顔の特徴である目や鼻、口などの顔のパーツ位置が顔の中のどのあたりにあるのか、人物に依存せずある程度決まっており、人物個体差によるパーツ位置の変動がほとんどない。このため、非特許文献1、及び特許文献1などの特徴量を用いて、顔のパーツ位置毎にその特徴を表現することで、安定した顔検出精度を得ることができる。一方、人物や車、バイクなどの一般物体は、物体の形状や姿勢などによって、その見え方は大きく異なることになり、人物の顔と比較し、個々の変動が大きいといえる。非特許文献1、及び特許文献1のような特徴量では、このような個々の変動を吸収することができず、検出精度が劣化してしまう。
(4)非特許文献2に記載されている特徴量は、複数対の画素値同士の大小比較を行うパターンの数を増加させ、さらに画素値同士の大小比較結果を、入力画像中の局所領域毎に頻度分布化することで、それぞれ検出精度の向上と、物体の形状や姿勢といった変動の吸収を図っている。しかしながら、単純に複数対の画素値同士の大小比較を行うパターンの数を増加させると、処理量やメモリ使用量の増加につながる。
本発明は、係る事情に鑑みてなされたものであり、人物や車、バイクといった一般物体を高精度に検出することができるとともに、特徴量抽出による処理量やメモリ使用量を少なく抑えることができる特徴量抽出装置及び特徴量抽出方法を提供することを目的とする。
本発明の特徴量抽出装置は、画像を入力する画像入力部と、前記入力した画像を前記入力した画像の特徴量を抽出するための少なくとも1つの変換画像に変換する変換画像生成部と、少なくとも1つの画素から構成されるユニットを配列したユニット配列内の、該ユニット同士の値の比較を行う複数のユニット位置の比較対で構成される特徴量生成パターンを記憶する特徴量生成パターン保持部と、前記変換画像に対して前記特徴量生成パターンを参照することにより、前記比較対に対応するユニット同士の値の比較を行い、前記変換画像の特徴量を抽出する特徴量抽出部と、を備えたことを特徴とする。
上記構成によれば、複数の変換画像の各々の特性に応じて、より適した特徴量生成パターンを用いるので、人物、車、バイク等の一般物体を高精度で検出できる特徴量を得ることができる。
上記構成において、前記ユニットの値は、前記ユニットの画素の輝度値から得られることを特徴とする。
上記構成によれば、ユニットの値を、該ユニットの画素の輝度値、あるいは、該ユニットが含む複数の画素の輝度値の平均値から得ることにより、ノイズとなる成分を平滑化することができる。
上記構成において、前記特徴量生成パターンを構成する前記複数の比較対は、比較対毎に所定の識別記号によって区別され、前記特徴量抽出部は、前記変換画像に対する前記特徴量生成パターンの参照位置を変えながら、前記参照を複数回行い、前記所定の識別記号の頻度分布により前記変換画像の特徴量を抽出することを特徴とする。
上記構成によれば、人物、車、バイク等の一般物体を高精度で検出できる特徴量を得ることができる。
上記構成において、前記変換画像を複数の局所領域に分割し、前記局所領域毎に求めた前記頻度分布から前記変換画像の特徴量を求めることを特徴とする。
上記構成によれば、変換画像を複数の局所領域に分割し、局所領域毎に求めた前記頻度分布を作成することにより、人物、車、バイク等の一般物体の形状や姿勢といった変動の吸収を図ることができるため、人物、車、バイク等の一般物体を高精度で検出できる特徴量を得ることができる。
上記構成において、前記複数の変換画像をそれぞれ複数の局所領域に分割し、前記局所領域毎に求めた前記頻度分布を前記変換画像毎に集めた集約特徴量を求め、前記複数の変換画像毎の前記集約特徴量から入力画像の特徴量を求めることを特徴とする。
上記構成によれば、人物、車、バイク等の一般物体を高精度で検出できる特徴量を得ることができる。
本発明の画像判定装置は、画像を判別するための判別対象の有する特徴量を保持する特徴量保持手段と、前記特徴量抽出装置と、を備え、前記入力画像に前記判別対象が含まれているか否かを判定することを特徴とする。
上記構成によれば、人物、車、バイク等の一般物体を高精度で検出することができる。
本発明の特徴量抽出方法は、画像を入力する画像入力ステップと、前記入力した画像を前記入力した画像の特徴量を抽出するための少なくとも1つの変換画像に変換する変換画像生成ステップと、少なくとも1つの画素から構成されるユニットを配列したユニット配列内の、該ユニット同士の値の比較を行うユニット位置の複数の前記比較対で構成される特徴量生成パターンを記憶する特徴量生成パターン保持ステップと、前記変換画像に対して前記特徴量生成パターンを参照することにより、前記比較対に対応するユニット同士の値の比較を行い、前記変換画像の特徴量を抽出する特徴量抽出ステップと、を備えたことを特徴とする。
上記方法によれば、複数の変換画像の各々の特性に応じて、より適した特徴量生成パターンを用いるので、人物、車、バイク等の一般物体を高精度で検出できる特徴量を得ることができる。
本発明の画像判定方法は、画像を判別するための判別対象の有する特徴量を保持する特徴量保持ステップと、前記特徴量生成方法を用いて、前記入力画像に前記判別対象が含まれているか否かを判定することを特徴とする。
上記方法によれば、人物、車、バイク等の一般物体を高精度で検出することができる。
本発明によれば、人物や車、バイクといった一般物体を高精度に検出することができるとともに、該検出処理における処理量やメモリ使用量を少なく抑えることができる。
本発明の一実施の形態に係る特徴量抽出装置の概略構成を示すブロック図 図1の特徴量抽出装置の処理過程の概要を模式的に示した図 図1の特徴量抽出装置において、変換画像を局所領域に分解する処理を模式的に示した図 図1の特徴量抽出装置において、局所領域中の各々の画素への識別記号ラベリングの一例を示す図 図1の特徴量抽出装置において、識別記号ラベリング値の計算方法を示す図 図1の特徴量抽出装置において、1つの局所領域から、複数の異なる特徴量生成パターン毎に識別記号の頻度分布を得た場合の一例を模式的に示した図 図1の特徴量抽出装置において、入力画像を方向別グラディエント画像に変換した結果を模式的に示した図 図1の特徴量抽出装置において、入力画像を平均フィルタ画像に変換した結果を模式的に示した図 図1の特徴量抽出装置の応用例である変換画像間特徴量を説明するための図 図1の特徴量抽出装置を用いた画像判定装置の概略構成を示すブロック図
以下、本発明を実施するための好適な実施の形態について、図面を参照して詳細に説明する。
図1は、本発明の一実施の形態に係る特徴量抽出装置の概略構成を示すブロック図である。同図において、本実施の形態に係る特徴量抽出装置1は、画像入力部2、変換画像生成部3、特徴量生成パターン保持部4、特徴量抽出部5及び特徴量出力部6を備えている。画像入力部2は、画像を入力する。画像入力部2には、人物を撮影して得られた画像、車やバイクなどの一般物体を撮影して得られた画像が与えられる。変換画像生成部3は、画像入力部2が入力した画像から複数の変換画像を生成する。すなわち、変換画像生成部3は、画像入力部2が入力した画像を、該画像の特徴量を抽出するための少なくとも1つの変換画像に変換する。生成する変換画像としては、「グレースケール画像」、「ガウシアンフィルタ画像」、「方向別グラディエント画像」などである。
特徴量生成パターン保持部4は、変換画像の特性に応じた特徴量生成パターンを保持する。詳細は後述するが、特徴量生成パターン保持部4は、少なくとも1つの画素から構成されるユニットを配列したユニット配列内の、該ユニット同士の値の比較を行う複数のユニット位置の比較対で構成される特徴量生成パターンを記憶する。例えば、グレースケール画像では、通常のLBPのように、ある基準画素と、その基準画素を中心とした周囲の近傍画素との輝度値の大小関係を記述するような特徴量生成パターンを記憶し、ガウシアンフィルタ画像では、変換画像を生成する過程の中で、既にノイズとなる高周波成分は取り除かれている場合が多いことから、局所的な特徴を捉える特徴量生成パターンを記憶すると良い。また、方向別グラディエント画像では、各方向別のエッジを見る特徴量生成パターンのみを記憶する。
特徴量抽出部5は、各変換画像に対して、指定された特徴量生成パターン毎に識別記号を抽出し、局所領域内でその識別記号数を頻度分布化する。識別記号を抽出する際には、特徴量生成パターン保持部4から、変換画像に対して特徴量生成パターンを参照することにより、比較対に対応するユニット同士の値の比較を行い、その比較結果から、変換画像の識別記号を抽出する。特徴量出力部6は、各変換画像から得られた識別記号の頻度分布を集約し、入力された画像の特徴量として出力する。
図2は、本実施の形態に係る特徴量抽出装置1の処理過程の概要を模式的に示した図である。同図において、入力画像20がグレースケール画像21、ガウシアンフィルタ画像22、方向別グラディエント画像23等の画像に変換される。すなわち、入力画像20からグレースケール画像21、ガウシアンフィルタ画像22、方向別グラディエント画像23等の画像が生成される。これらの変換画像が生成された後、変換画像毎に、異なる特徴量生成パターン30,30,30,…、31,31,31,…、32,32,…が参照される。次いで、(1):変換画像毎に、該変換画像に対して局所領域21,21,21,…,21、22,22,22,…,22、23,23,23,…,23が設定される(すなわち、分割される)。次いで、(2):変換画像毎に、各局所領域において、ある1つの特徴量生成パターンを用いて、識別記号数が、局所領域内識別記号頻度分布40,40,…,40、41,41,…,41、42,42,…,42として表される。(3):(1)〜(2)の処理が特徴量生成パターンを変えながら、特徴量生成パターンの数だけ繰り返し実行される。
例えば、グレースケール画像21では、グレースケール画像21に対して局所領域21,21,21,…,21が設定された後、各局所領域21,21,21,…,21において、ある1つの特徴量生成パターン30を用いて識別記号が各々の画素に対してラベリングされていき、その識別記号数が局所領域内識別記号頻度分布40,40,…,40、41,41,…,41、42,42,…,42として表され、その頻度分布が集約され、変換画像識別記号頻度分布50で表される。同様の処理が、残りの特徴量生成パターン30,30,…についても行われる。
ガウシアンフィルタ画像22、方向別グラディエント画像23等の他の変換画像に対しても同様の処理が行われ、それらの変換画像における特徴量が変換画像識別記号頻度分布51,52,…で表される。そして、全ての変換画像における変換画像識別記号頻度分布51,52,…が集約されて、最終的な識別記号頻度分布60(特徴量)が求められる。この集約した特徴量を用いて人物、車、バイク等の物体の判定が行われる。
次に、上記した各処理を詳細に説明する。
図3は、変換画像を局所領域に分解する処理を模式的に示した図である。図3の(a)は、変換画像の一例であるグレースケール画像21を示す図である。図3の(b)は、グレースケール画像21内を局所領域に分解した状態を示す図である。また、図3の(c)は、サイズを5×5画素とした局所領域26を示す図である。なお、変換画像のサイズ、その中に含まれる局所領域数、局所領域サイズ、局所領域の配置方法はこの例に限るものではない。また、局所領域は、図3の(b)に示すような規則正しい配置としなくても良いし、異なるサイズの局所領域同士をランダムな位置配置にしても良いし、そのような局所領域同士を重ね合わせても良い。以下、特徴量抽出の説明用として、5×5画素の局所領域に着目することとする。
図4は、局所領域内の画素への識別記号ラベリングの一例を示す図である。図4では、3×3の特徴量生成パターンを例に挙げている。図4の(a)に示すような特徴量生成パターン36の場合、3対の輝度値比較を行うと、取り得るパターン数は“2”の3乗(3対あるので)で、“8”である。すなわち、“0〜7”の値(識別記号)で表現することができる。5×5画素の局所領域26内の各画素において、3×3の特徴量生成パターン36の参照位置(この例では、3×3の特徴量生成パターン36の中心位置のこと)を参照し、水平方向の3対の輝度値(例えば、画素361の輝度値と画素363の輝度値が一対目、画素364の輝度値と画素366の輝度値が二対目、画素367の輝度値と画素369の輝度値が三対目)の比較をそれぞれ行い、その結果から算出した識別記号“0〜7”の値を、特徴量生成パターンの参照位置に対応する局所領域内の画素にラベリングしていく。
図4の(a)から分かるように、特徴量生成パターンは、少なくとも1つの画素から構成されるユニットを配列したユニット配列内の、該ユニット同士の比較を行う複数のユニット位置の比較対で構成されるものである。
図4の(b)に示すように、局所領域26に対し、点線で囲んだ位置において特徴量生成パターン36を参照した場合、特徴量生成パターンの中心の値が“5”となる場合を例とする。この“5”の値は、特徴量生成パターン36の画素361の輝度値と画素363の輝度値と、画素364の輝度値と画素366の輝度値と、画素367の輝度値と画素369の輝度値の大小関係を比較することで、算出される。図5は、図4の場合の識別記号ラベリング値の計算方法を示す図である。同図に示すように、注目点の輝度値I(ref)と、その近傍にある輝度値I(n)の大小を比較し、“1”、“0”でバイナリ化する。特徴量生成パターン36の画素361の輝度値“22”と画素363の輝度値“8”の比較において、注目点の輝度値I(ref)“22”がその近傍の輝度値I(n)“8”以上の値であるので、“1”となる。次に、特徴量生成パターン36の画素364の輝度値“20”と画素366の輝度値“31”の比較において、注目点の輝度値I(ref)“20”がその近傍の輝度値I(n)“31”未満の値であるので、“0”となる。次に、特徴量生成パターン36の画素367の輝度値“17”と画素369の輝度値“15”の比較において、注目点の輝度値I(ref)“17”がその近傍の輝度値I(n)“15”以上の値であるので、“1”となる。したがって、バイナリパターンは、“101”で、この101は、1+4=5となり、識別記号ラベリング値は“5”となる。
このようにして、局所領域26内で、特徴量生成パターン36を参照位置を変えながら参照させていくことで、特徴量生成パターン36における各々の識別記号ラベリング値の頻度が得られる。これらを頻度分布化すると、図4の(c)に示すようになる。図4に示す例では、識別記号ラベリング値“0”の頻度は“3”、識別記号ラベリング値“1”の頻度は“2”、識別記号ラベリング値“2”の頻度は“7”、識別記号ラベリング値“3”の頻度は“1”、識別記号ラベリング値“4”の頻度は“3”、識別記号ラベリング値“5”の頻度は“4”、識別記号ラベリング値“6”の頻度は“3”、識別記号ラベリング値“7”の頻度は“2”となる。
特徴量生成パターン36以外の残りの特徴量生成パターン36,36,36,…についても同様に行う。
なお、特徴量生成パターンの作成方法は、上述した例に限るものではない。また、3×3、4×4、5×5、…等、サイズに制限はない。また、画素レベルの輝度値比較ではなく、2×2画素領域内の平均輝度値と近傍の輝度値を比較する、あるいは、2×2画素領域内の平均輝度値と、近傍の2×2画素領域内の平均輝度値を比較する等、様々なバリエーションが考えられ、例えば、人物や車、バイク等の細部の特徴を捉えるためには3×3,4×4等の比較的局所的な特徴量生成パターンを用いれば良いし、大まかな形状を捉えるためには、5×5、7×7等の比較的大局的な特徴量生成パターンを用いれば良い。
特徴量生成パターンに対し、4対の輝度値比較を行う場合、取り得るパターン数は2の4乗の“16”(0〜15の値)となり、3対の輝度値比較を行う場合と比較して2倍となる。
1つの局所領域から、特徴量生成パターン毎に頻度分布が得られる。図6は、1つの局所領域から特徴量生成パターン毎に頻度分布を得た場合の一例を模式的に示した図である。図6の(イ)は、水平方向の3対の輝度値の比較により得られる識別記号ラベリング値の頻度分布、図6の(ロ)は、垂直方向の3対の画素値の比較により得られる識別記号ラベリング値の頻度分布、図6の(ハ)は、垂直、水平及び斜め方向の4対の画素値の比較により得られる識別記号ラベリング値の頻度分布を示している。また、1つの局所領域から得られる頻度分布を1つの頻度分布に集約し、この集約された頻度分布を“局所領域頻度分布”と呼ぶ。さらに、全ての局所領域頻度分布を1つの頻度分布に集約し、この頻度分布の度数値を最終的な“特徴量”とする。なお、これらの頻度分布の集約時には、単純に頻度分布同士を連結させるのではなく、Boosting等の統計的学習方法を用いることで、人物や車、バイクといった一般物体の検出精度に重要な意味合いを持つ局所領域を事前に記憶させておき、その局所領域に対応する頻度分布に対して重み付け等の処理を加えるようにしてもよい。
以上説明した特徴量抽出処理を変換画像毎に行うが、変換画像毎に扱う特徴量生成パターンは異なる。例として、方向別グラディエント画像、平均フィルタ画像を挙げる。
(方向別グラディエント画像)
図7は、入力画像を方向別グラディエント画像に変換した結果を模式的に示した図である。同図に示すように、入力画像20(図7(a))を方向別グラディエント画像に変換すると、各変換画像27−1,27−2,27−3において得られる情報は意図的に限られてくる。すなわち、各変換画像27−1,27−2,27−3から有意な情報を抽出することが可能と事前に分かっている特徴量生成パターンのみを使用することで(あるいは、有意な情報が得られないような無駄な特徴量生成パターンを使用しないことで)、特徴量抽出処理による処理量の増加や、頻度分布保持のためのメモリ容量の増加、さらに、使用特徴量数の増加による判定用辞書部サイズの増加や、無駄な情報を使用して識別処理を行うことによる識別精度の劣化などを防ぐことができる。
図7の(b)に示すように、垂直方向のエッジ成分27aに対しては、水平方向に比較する特徴量生成パターン36を使用し、図7の(c)に示すように、水平方向のエッジ成分27bに対しては、垂直方向に比較する特徴量生成パターン36を使用し、図7の(d)に示すように、斜め方向のエッジ成分27cに対しては、斜め方向に比較する特徴量生成パターン36を使用する。このように有意な情報が得られると事前に分かっている特徴量生成パターンのみを使用する。
(平均フィルタ画像)
図8は、入力画像を平均フィルタ画像に変換した結果を模式的に示した図である。同図に示すように、入力画像20(図8(a))を、フィルタのパラメータを変更しながら平均フィルタ画像に変換すると、図8の(b),(c)に示すように、高周波成分の除去レベルを制御した画像28−1,28−2を得ることができる。入力画像20に高周波成分が多く残っている場合、図8の(b)に示す画像28−1のように、ノイズが多く含まれている可能性が高いので、例えばノイズによって有意ではない情報を抽出してしまう可能性のある画素レベルの輝度値大小比較を行う特徴量生成パターンを使用せずに、ノイズに対してロバスト性があるような2×2画素領域内の平均輝度値を比較するようなパターン37を用いることで、ノイズ対策を施した有意な特徴量抽出を行うことができる。一方、図8の(c)に示すように、高周波成分が多く取り除かれたような画像28−2では、既にノイズ除去は終わっているので、2×2画素領域内の平均輝度値(“・”で示す)を比較するようなパターンを使用する必要はなく、3×3画素で画素レベルの比較を行う特徴量生成パターン36のみ用いる。
このように、本実施の形態に係る特徴量抽出装置1によれば、1つの入力画像20から複数の変換画像21,22,23,…を生成し、各々の変換画像21,22,23,…から、その特性に応じて、より適した特徴量生成パターン30,30,30,…、31,31,31,…、32,32,…を抽出し、さらに各々の変換画像21,22,23,…を複数個に分割した各々の局所領域21,21,21,…,21、22,22,22,…,22、23,23,23,…,23内において、その特徴量生成パターン数の変換画像識別記号頻度分布50,51,52,…を算出し、それらを集約した識別記号頻度分布60を最終的な特徴量とするので、この特徴量を画像判定装置などの物体を検出する装置に用いることで、人物、車、バイクなどの一般物体を高精度で検出することが可能となる。
また、各変換画像27−1,27−2,27−3から有意な情報を抽出することが可能な特徴量生成パターンのみを使用することで、特徴量抽出処理による処理量の増加や、頻度分布保持のためのメモリ容量の増加、さらには、使用特徴量数の増加による判定用辞書部サイズの増加や、無駄な情報を使用して識別処理を行うことによる識別精度の劣化などを防ぐことができる。
なお、本実施の形態に係る特徴量抽出装置1の変換画像生成部3のバリエーションについて以下に述べる。
・変換画像生成部3のバリエーション
カラー画像(RGBチャネル各々、YCbCrチャネル各々)、グレースケール画像、方向別グラディエント画像、N×M平均フィルタ画像(N、Mは実数)、オプティカルフロー画像、Nフレーム間差分・平均画像(Nは実数)、距離画像、周波数画像、DOG(Difference of Gaussian)画像等、一般的に考えられる画像変換手法を用いることができる。
・変換画像間特徴量
従来のように単一の変換画像内でバイナリパターン特徴量を抽出するのではなく、1つ以上の複数間の変換画像に跨がるようなバイナリパターン特徴量を抽出する。例えば、図9の(a)に示すように、グレースケール画像21内の2点の輝度値を比較するのではなく、図9の(b)に示すように、グレースケール画像21内の1点の輝度値とガウシアンフィルタ画像22内の1点の輝度値を比較する。
・車、バイクなどの検出に適用
人物だけでなく、車やバイクなど、一般物体の検出も勿論可能である。人物や車、バイク等の検出対象によって、使用する変換画像や特徴量生成パターンを変えても良い。
また、本実施の形態に係る特徴量抽出装置1のハード構成としては、通常のコンピュータを用いることもできる。すなわち、特徴量抽出装置1は、CPU、RAM等の揮発性メモリ、及びROM等の不揮発性メモリ、及びハードディスク又はSSD(Solid State Drive)等の大容量記憶装置等を備えたコンピュータによって構成できる。
また、本実施の形態に係る特徴量抽出装置1における処理を記述したプログラムを、磁気ディスク、光ディスク、光磁気ディスク、半導体メモリ等の記憶媒体に格納して配布したり、インターネット等の電気通信回線を利用して配布したりすることも可能である。
また、本実施の形態に係る特徴量抽出装置1を用いて画像判定装置を実現することができる。図10は、特徴量抽出装置1を用いた画像判定装置70の概略構成を示すブロック図である。同図において、画像判定装置70は、特徴量抽出装置1と、判定用辞書部(特徴量保持手段)71と、判定部72とを備える。判定用辞書部71は、画像を判別するための判別対象の有する特徴量を保持する。判定部72は、入力された画像に判別対象が含まれているか否かを判定する。画像判定装置70は、特徴量抽出装置1を備えることから、人物、車、バイク等の一般物体を高精度で検出することができる。
本発明は、人物のみならず、車やバイクなどの一般物体を高精度に検出することができるとともに、特徴量抽出による処理量やメモリ使用量を少なく抑えることができるといった効果を有し、画像情報から物体を検出する物体検出装置への適用が可能である。
1 特徴量抽出装置
2 画像入力部
3 変換画像生成部
4 特徴量生成パターン保持部
5 特徴量抽出部
6 特徴量出力部
20 入力画像
21 グレースケール画像
22 ガウシアンフィルタ画像
23 方向別グラディエント画像
21,21,21,…,21、22,22,22,…,22、23,23,23,…,23 局所領域
26 局所領域
27−1,27−2,27−3 変換画像
27a 垂直方向のエッジ成分
27b 水平方向のエッジ成分
27c 斜め方向のエッジ成分
28−1,28−2 画像
30,30,30,…、31,31,31,…、32,32,… 特徴量生成パターン
36,36,36,36 特徴量生成パターン
40,40,…,40、41,41,…,41、42,42,…,42 局所領域内識別記号頻度分布
50,51,52 変換画像識別記号頻度分布
60 識別記号頻度分布
70 画像判定装置
71 判定用辞書部
72 判定部
361,363,364,366,367,369 画素

Claims (10)

  1. 画像を入力する画像入力部と、
    前記入力した画像を前記入力した画像の特徴量を抽出するための複数の変換画像に変換する変換画像生成部と、
    少なくとも1つの画素から構成されるユニットを配列したユニット配列内の、該ユニット同士の値の比較を行う複数のユニット位置の比較対で構成される特徴量生成パターンを記憶する特徴量生成パターン保持部と、
    前記変換画像に対して、各変換画像毎に比較対の配置が異なる、前記特徴量生成パターンを参照することにより、前記比較対に対応するユニット同士の値の比較を行い、前記変換画像の特徴量を抽出する特徴量抽出部と、
    を備え、
    前記複数の変換画像毎の特徴量を連結して前記入力した画像の特徴量を求めることを特徴とする特徴量抽出装置。
  2. 前記ユニットの値は、前記ユニットの画素の輝度値から得られることを特徴とする請求項1に記載の特徴量抽出装置。
  3. 前記特徴量生成パターンを構成する前記複数の比較対は、比較対毎に所定の識別記号によって区別され、
    前記特徴量抽出部は、前記変換画像に対する前記特徴量生成パターンの参照位置を変えながら、前記参照を複数回行い、前記所定の識別記号の頻度分布により前記変換画像の特徴量を抽出することを特徴とする請求項1又は請求項2に記載の特徴量抽出装置。
  4. 前記変換画像を複数の局所領域に分割し、前記局所領域毎に求めた前記頻度分布から前記変換画像の特徴量を求めることを特徴とする請求項3に記載の特徴量抽出装置。
  5. 画像を判別するための判別対象の有する特徴量を保持する特徴量保持手段と、
    請求項1乃至請求項4のいずれか一項に記載の特徴量抽出装置と、を備え、
    前記入力した画像に前記判別対象が含まれているか否かを判定することを特徴とする画像判定装置。
  6. 画像を入力する画像入力ステップと、
    前記入力した画像を前記入力した画像の特徴量を抽出するための複数の変換画像に変換する変換画像生成ステップと、
    少なくとも1つの画素から構成されるユニットを配列したユニット配列内の、該ユニット同士の値の比較を行うユニット位置の複数の比較対で構成される特徴量生成パターンを記憶する特徴量生成パターン保持ステップと、
    前記変換画像に対して、各変換画像毎に比較対の配置が異なる、前記特徴量生成パターンを参照することにより、前記比較対に対応するユニット同士の値の比較を行い、前記変換画像の特徴量を抽出する特徴量抽出ステップと、
    を備え、
    前記複数の変換画像毎の特徴量を連結して前記入力した画像の特徴量を求めることを特徴とする特徴量抽出方法。
  7. 画像を判別するための判別対象の有する特徴量を保持する特徴量保持ステップと、
    請求項6に記載の特徴量抽出方法を用いて、前記入力した画像に前記判別対象が含まれているか否かを判定することを特徴とする画像判定方法。
  8. 前記ユニットの値は、前記ユニットの画素の輝度値から得られることを特徴とする請求項6に記載の特徴量抽出方法。
  9. 前記特徴量生成パターンを構成する前記複数の比較対は、比較対毎に所定の識別記号によって区別され、
    前記特徴量抽出ステップは、前記変換画像に対する前記特徴量生成パターンの参照位置を変えながら、前記参照を複数回行い、前記所定の識別記号の頻度分布により前記変換画像の特徴量を抽出することを特徴とする請求項6又は請求項8に記載の特徴量抽出方法。
  10. 前記変換画像を複数の局所領域に分割し、前記局所領域毎に求めた前記頻度分布から前記変換画像の特徴量を求めることを特徴とする請求項9に記載の特徴量抽出方法。
JP2011167232A 2011-07-29 2011-07-29 特徴量抽出装置及び特徴量抽出方法 Active JP6123975B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2011167232A JP6123975B2 (ja) 2011-07-29 2011-07-29 特徴量抽出装置及び特徴量抽出方法
US14/235,178 US9367567B2 (en) 2011-07-29 2012-07-25 Feature value extraction apparatus and feature value extraction method
PCT/JP2012/069532 WO2013018816A2 (en) 2011-07-29 2012-07-25 Feature value extraction apparatus and feature value extraction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011167232A JP6123975B2 (ja) 2011-07-29 2011-07-29 特徴量抽出装置及び特徴量抽出方法

Publications (3)

Publication Number Publication Date
JP2013030104A JP2013030104A (ja) 2013-02-07
JP2013030104A5 JP2013030104A5 (ja) 2014-09-04
JP6123975B2 true JP6123975B2 (ja) 2017-05-10

Family

ID=46650845

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011167232A Active JP6123975B2 (ja) 2011-07-29 2011-07-29 特徴量抽出装置及び特徴量抽出方法

Country Status (3)

Country Link
US (1) US9367567B2 (ja)
JP (1) JP6123975B2 (ja)
WO (1) WO2013018816A2 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8922414B2 (en) 2013-02-12 2014-12-30 Cortica, Ltd. Multi-layer system for symbol-space based compression of patterns
JP6202938B2 (ja) * 2013-08-22 2017-09-27 キヤノン株式会社 画像認識装置および画像認識方法
KR102172321B1 (ko) 2014-05-20 2020-10-30 삼성전자주식회사 데이터 중복 제거 방법
EP3223167B1 (en) * 2014-12-16 2018-11-21 Huawei Technologies Co., Ltd. Storage space management method and device
JP6202283B2 (ja) 2015-04-16 2017-09-27 パナソニックIpマネジメント株式会社 事件映像処理装置、事件映像処理システム、事件映像処理方法、及びプログラム
JP6124223B2 (ja) 2015-04-16 2017-05-10 パナソニックIpマネジメント株式会社 事件映像ログデータ生成装置、事件映像処理システム、事件映像ログデータ生成方法、及びプログラム
JP7308421B2 (ja) * 2018-07-02 2023-07-14 パナソニックIpマネジメント株式会社 学習装置、学習システム、及び学習方法
US11113838B2 (en) * 2019-03-26 2021-09-07 Nec Corporation Deep learning based tattoo detection system with optimized data labeling for offline and real-time processing
US11783587B2 (en) * 2020-03-04 2023-10-10 Nec Corporation Deep learning tattoo match system based

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006090313A2 (en) * 2005-02-24 2006-08-31 Koninklijke Philips Electronics N.V. Object recognition using adrc (adaptive dynamic range coding)
JP4767595B2 (ja) 2005-06-15 2011-09-07 パナソニック株式会社 対象物検出装置及びその学習装置
US7627166B2 (en) * 2005-09-28 2009-12-01 Yahoo! Inc. Method and mechanism for processing image data
US20120189193A1 (en) * 2009-06-03 2012-07-26 National Ict Australia Limited Detection of objects represented in images
JP5297530B2 (ja) * 2009-07-15 2013-09-25 株式会社東芝 画像処理装置、及びインターフェース装置
JP5455046B2 (ja) 2010-02-16 2014-03-26 京楽産業.株式会社 演出用役物装置

Also Published As

Publication number Publication date
JP2013030104A (ja) 2013-02-07
US9367567B2 (en) 2016-06-14
WO2013018816A3 (en) 2013-03-28
WO2013018816A2 (en) 2013-02-07
US20140164413A1 (en) 2014-06-12

Similar Documents

Publication Publication Date Title
JP6123975B2 (ja) 特徴量抽出装置及び特徴量抽出方法
CN108229490B (zh) 关键点检测方法、神经网络训练方法、装置和电子设备
JP6403233B2 (ja) ユーザー認証方法、これを実行する装置及びこれを保存した記録媒体
US9294665B2 (en) Feature extraction apparatus, feature extraction program, and image processing apparatus
JP4877374B2 (ja) 画像処理装置及びプログラム
US20150016679A1 (en) Feature extraction device, feature extraction method, and feature extraction program
JP5671928B2 (ja) 学習装置、学習方法、識別装置、識別方法、およびプログラム
CN104008401B (zh) 一种图像文字识别的方法及装置
EP3168810A1 (en) Image generating method and apparatus
JP5431362B2 (ja) 画像識別のための特徴ベースの識別特性(signature)
CN103026384A (zh) 特征提取装置、特征提取方法、特征提取程序以及图像处理装置
JP6351243B2 (ja) 画像処理装置、画像処理方法
WO2007013529A1 (ja) 顔画像検出装置、顔画像検出方法および顔画像検出プログラム
JP6410450B2 (ja) オブジェクト識別装置、オブジェクト識別方法及びプログラム
JP6338429B2 (ja) 被写体検出装置、被写体検出方法及びプログラム
JP2011253354A (ja) 画像処理装置および方法、並びにプログラム
JP5201184B2 (ja) 画像処理装置及びプログラム
JP2010244381A (ja) ガボアフィルタ、画像認識装置および方法、プログラム、並びに記録媒体
JP5625196B2 (ja) 特徴点検出装置、特徴点検出方法、特徴点検出プログラム及び記録媒体
Chang et al. Multi-level smile intensity measuring based on mouth-corner features for happiness detection
JP6276504B2 (ja) 画像検出装置及び制御プログラム並びに画像検出方法
JP4866891B2 (ja) 顔検出装置、顔検出方法および顔検出プログラム
Shen et al. Unsupervised human skeleton extraction from Kinect depth images
JP6125331B2 (ja) テクスチャ検出装置、テクスチャ検出方法、テクスチャ検出プログラム、および画像処理システム
JP7415202B2 (ja) 判定方法、判定プログラム、および情報処理装置

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20131225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140716

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140716

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20141008

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20150119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160905

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170321

R151 Written notification of patent or utility model registration

Ref document number: 6123975

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151