[go: up one dir, main page]

JP2001236339A - クラス分類装置 - Google Patents

クラス分類装置

Info

Publication number
JP2001236339A
JP2001236339A JP2000046341A JP2000046341A JP2001236339A JP 2001236339 A JP2001236339 A JP 2001236339A JP 2000046341 A JP2000046341 A JP 2000046341A JP 2000046341 A JP2000046341 A JP 2000046341A JP 2001236339 A JP2001236339 A JP 2001236339A
Authority
JP
Japan
Prior art keywords
vector
class
weighting function
unit
function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000046341A
Other languages
English (en)
Inventor
Mikihiko Terajima
幹彦 寺島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP2000046341A priority Critical patent/JP2001236339A/ja
Publication of JP2001236339A publication Critical patent/JP2001236339A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

(57)【要約】 【課題】ベクトルデータが散逸しクラスタをはっきり形
成しないためにクラス毎に分類しにくい場合、あるいは
ベクトルデータの特徴によらず(あるいは反して)意図
的にクラス分類したい場合にも、精度よくベクトルデー
タを複数個のクラスに分類することができるクラス分類
装置を提供する。 【解決手段】クラス分類すべきベクトルデータを入力す
るベクトル入力部1と、入力ベクトルの各成分に対して
施すべき重み関数を設定する重み付け関数設定部2と、
この重み付け関数設定部2によって設定された重み付け
関数に基づいて、入力ベクトルを変換する入力ベクトル
変換部3と、変換後の入力ベクトルをクラス判定するク
ラス判定部4と、このクラス判定部4によって判定され
たクラスを出力するクラス出力部5とを具備する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明はクラス分類装置に関
し、特に、入力ベクトルの各成分に対して重み関数を施
すことで入力ベクトルのクラス分類を行なうクラス分類
装置に関する。
【0002】
【従来の技術】ベクトルデータを複数個にクラス分類す
る方法は、一般的には最隣接近傍法や、教師付きNN
(神経回路網)であるBP(Back Propagation)法、L
VQ(Learning Vector Quantization)法などがある。
これらはすべて、入力されたベクトルデータを誤分類の
ないようにクラス分類する最適化方法である。
【0003】上記した最隣接近傍法や、教師付きNN
(神経回路網)であるBP法、LVQ法などはベクトル
データの誤分類ができるだけ少なくなるように最適に分
類しようとする手法であるが、その分類結果は、入力ベ
クトルデータ群の性質により、ある程度性能が限られて
しまっている。すなわち、もともとの入力ベクトルデー
タ群が複数個のクラスに分けにくいデータであった場合
には、誤分類を少なくすることはできない。
【0004】以下にこのことを簡単に説明する。クラス
分類装置を使って画像を領域分割することを考える。ク
ラス分類の手順は図17(a)に示すようなフローチャ
ートで示される。まず画像を入力して(ステップS
1)、各画素においてさまざまな特徴量を抽出する(ス
テップS2)。次に、各画素において抽出された特徴量
をベクトルの成分として並べて、様々な特徴量を成分に
もつベクトル(特徴ベクトル)を作る(ステップS
3)。次に特徴ベクトルをクラス分類装置を用いてnク
ラスにクラス分類する(nは例えば4)(ステップS
4)。次に各画素に対してクラス分類結果のラベル(n
個)を付けることにより入力画像が領域ごとに分割され
る。図17(b)はクラス分類すべく入力されたベクト
ルを示し、図17(c)はクラス分類により領域分割さ
れた結果を示している。
【0005】上記の方法により特徴ベクトルを抽出する
場合、画像中のいろいろな対象物を分割するために、一
般にはどのような特徴量が適しているかを一義的に知る
のは大変困難である。そのため、必要と考えられる特徴
量を非常に多く抽出するが、抽出したベクトルの成分に
は、クラス分類に適さない(効果のない)ものが存在す
ることがある。このような成分は分類に効果がなく、か
えって誤分類を増やすことになる(図18)。
【0006】このように上記の従来技術では入力ベクト
ルの性質により分類の性能が限られ、誤分類を少なくす
ることが出来ない。そこで、誤分類を少なくするため
に、特開平4−23088号公報、特開平9−1019
70号公報、特開平11−39325号公報では、ベク
トルの成分にある重みをつけ、分類に効果のある成分の
重みを大きくし、分類に効果のない成分の重みを小さく
する方法を開示している。
【0007】
【発明が解決しようとする課題】上記した特開平4−2
3088号公報、特開平9−101970号公報、特開
平11−39325号公報に開示されたいずれの方法に
おいても重みの大きさを様々な方法で最適化している
が、結果としては、ある成分に単純に定数倍しているだ
けにすぎない。これでは、ベクトルデータがクラスタ
(データの房状の固まり)を形成し、きれいにクラス毎
に分離しやすくなっている場合には、ある程度誤分類を
小さくすることはできるが、ベクトルデータが散逸しク
ラスタ(データの房状の固まり)をはっきり形成せずク
ラス毎に分類しにくい場合や、ベクトルデータの特徴に
よらず(あるいは反して)意図的にクラス分類したい場
合に、誤分類を小さくすることができない。
【0008】以下にこのことを簡単に説明する。図19
(a)は二つのクラスからなる入力2次元ベクトル群
(X1,X2)を示す。このベクトル群は図中の点線に
従ってクラス分けすることができるが、それぞれの成分
に重み(W1,W2)(ここでW1<W2である)を掛
け算してクラス分類した方が二つのクラスの距離が離
れ、より誤分類を少なくすることができる(図19
(b))。ただし、図19(a)は理想的なケースであ
り、一般には図20(a)のようにベクトルデータはク
ラスタとして集積せずかなり散逸していることが多い。
その場合は、それぞれの成分に重み(W1,W2)を乗
算しても図20(b)のように二つのクラスの距離があ
まり離れず、誤分類を少なくすることができない。
【0009】また、図19(a)のようなデータを意図
的に図21(a)に示す点線に従ってクラス分類したい
場合、すなわちベクトルデータの特徴によらず(あるい
は反して)意図的にクラス分類したい場合も考えられる
が、この場合には図21(b)のように重み(W1,W
2)(ここでW1>W2である)を乗算しても誤分類を
少なくすることができない。特に、画像検索を行うため
に画像をクラス分類しておくようなケースでは、画像を
いろいろな尺度で解析しておく必要があるので、ベクト
ルデータの特徴によらず(あるいは反して)意図的にク
ラス分類することが重要になっている。
【0010】本発明はこのような課題に着目してなされ
たものであり、その目的とするところは、ベクトルデー
タが散逸しクラスタ(データの房状の固まり)をはっき
り形成しないためにクラス毎に分類しにくい場合、ある
いはベクトルデータの特徴によらず(あるいは反して)
意図的にクラス分類したい場合にも、精度よくベクトル
データを複数個のクラスに分類することができるクラス
分類装置を提供することにある。
【0011】
【課題を解決するための手段】上記の目的を達成するた
めに、第1の発明はクラス分類装置であって、クラス分
類すべきベクトルデータを入力するベクトル入力部と、
入力ベクトルの各成分に対して施すべき重み関数を設定
する重み付け関数設定部と、この重み付け関数設定部に
よって設定された重み付け関数に基づいて、入力ベクト
ルを変換する入力ベクトル変換部と、変換後の入力ベク
トルをクラス判定するクラス判定部と、このクラス判定
部によって判定されたクラスを出力するクラス出力部と
を具備する。
【0012】また、第2の発明は第1の発明におけるク
ラス分類装置であって、前記クラス判定部において判定
したクラスを評価する判定結果評価部を有し、前記重み
付け関数設定部は、この判定結果評価部での評価に基づ
いて、重み付け関数を再設定する。
【0013】また、第3の発明は第1または第2の発明
におけるクラス分類装置であって、前記重み付け関数設
定部は、クラスの代表ベクトルを設定する代表ベクトル
設定部と、重みの大きさを設定する大きさ設定部と、前
記代表ベクトル設定部によって設定された代表ベクトル
と、前記大きさ設定部によって設定された重みの大きさ
とに基づき、重み付け関数を設定する関数設定部とを具
備する。
【0014】
【発明の実施の形態】以下、図面を参照して本発明の実
施形態を詳細に説明する。
【0015】(第1実施形態)図1は本発明の第1実施
形態の構成を示す図であり、クラス分類すべきベクトル
データを入力するベクトル入力部1と、入力ベクトルの
各成分に対して施すべき重み関数を設定する重み付け関
数設定部2と、この重み付け関数設定部2によって設定
された重み付け関数に基づいて、入力ベクトルを変換す
る入力ベクトル変換部3と、変換後の入力ベクトルをク
ラス判定するクラス判定部4と、このクラス判定部4に
よって判定されたクラスを出力するクラス出力部5とを
具備する。
【0016】以下に第1実施形態の作用を説明する。ま
ず、ベクトル入力部1で、クラス分類すべきベクトルデ
ータaを入力する。続いて重み付け関数設定部2におい
て、ベクトルの各成分に対して施す重み関数bを設定す
る。入力ベクトル変換部3では、重み付け関数設定部2
によって設定された重み付け関数bにより、入力ベクト
ルaを変換し、変換後の入力ベクトルcを作成する。ク
ラス判定部4では変換後のベクトルcをクラス判定す
る。そしてクラス判定部4によって判定されたクラスd
をクラス出力部5から出力する。
【0017】上記した第1実施形態によれば、ベクトル
の各成分を単純に定数するだけでなく、ベクトルの各成
分に対して重み関数を施すので、その変換後の出力を各
成分の値に依存させることができる。したがって、ベク
トルデータがクラスタ(データの房状の固まり)を形成
し、きれいにクラス毎に分離しやすくなっている場合だ
けでなく、ベクトルデータが散逸しクラスタ(データの
房状の固まり)をはっきり形成せずクラス毎に分離しに
くい場合や、ベクトルデータの特徴によらず(あるいは
反して)意図的にクラス分類したい場合にも、誤分類を
小さくすることができる。
【0018】(第2実施形態)図2は本発明の第2実施
形態の構成を示す図であり、第1実施形態の構成に加え
て判定結果評価部6が追加されている。第2実施形態で
は、クラス判定部4において判定したクラス結果を判定
結果評価部6に入力して評価し、重み付け関数設定部2
において評価結果に基づき重み付け関数を再設定する。
【0019】以下に第2実施形態の作用を説明する。ま
ず、ベクトル入力部1で、クラス分類すべきベクトルデ
ータaを入力する。続いて重み付け関数設定部2におい
て、ベクトルの各成分に対して施す重み付け関数bを設
定する。入力ベクトル変換部3では、重み付け関数設定
部2によって設定された重み付け関数bにより、入力ベ
クトルaを変換し、変換後の入力ベクトルcを作成す
る。クラス判定部4では、変換後のベクトルcをクラス
判定する。判定結果評価部6では、クラス判定部4によ
って判定されたクラスdの結果を評価する。重み付け関
数設定部2は、判定結果評価部6で評価した結果に基づ
き重み付け関数を再設定する必要があるかどうかを判断
し、再設定の必要がある場合には再度重み付け関数bを
設定する。
【0020】重み付け関数bは入力ベクトル変換部3に
入力されて入力ベクトルcに変換された後、クラス判定
部4でクラス判定が行なわれ、判定結果評価部6で評価
する。重み付け関数を再設定する必要がなければ、その
ままクラス出力部5からクラスを出力する。
【0021】ここで、ベクトルデータaを入力する毎に
判定結果評価部6で評価を行っても良いし、ベクトルデ
ータを複数個入力し、入力された複数のベクトルデータ
に対応したクラスを複数個出力したものを評価するよう
にしてもよい。
【0022】上記した第2実施形態によれば、ベクトル
の各成分に対して施す重み関数をクラス判定結果によっ
て、再調整することが可能になるので、さらに誤分類を
小さくすることができる。
【0023】(第3実施形態)本発明の第3実施形態は
図3に示すように、第1実施形態で説明した重み付け関
数設定部2を、クラスの代表ベクトルeを設定する代表
ベクトル設定部21と、重みの大きさfを設定する大き
さ設定部22と、代表ベクトル設定部21によって設定
された代表ベクトルeと、大きさ設定部22によって設
定された重みの大きさfの情報から重み付け関数bを設
定する関数設定部20とで構成している。関数設定部2
0では、代表ベクトルeと重みの大きさfの情報を合成
し、誤分類が小さくなるように重み付け関数bを設定す
る。
【0024】上記した第3実施形態によれば、クラスの
代表ベクトルと重みの大きさの情報を合成して重み付け
関数を設定するので、特にベクトルデータの特徴によら
ず(あるいは反して)意図的にクラス分類したい場合に
も、誤分類を更に小さくすることができる。
【0025】(第4実施形態)本発明の第4実施形態で
は図4に示すように、第1実施形態で説明した重み付け
関数設定部2が、代表ベクトル近傍で関数の傾きが緩く
なるように重み付け関数を設定する。なお、図4は2ク
ラスに分類する場合を示しており、Xを入力ベクトルの
一つの成分、W(X)を重み付け関数、a1をクラス1
の代表ベクトルの一つの成分(Xに対応する成分)、a
2をクラス2の代表ベクトルの一つの成分(Xに対応す
る成分)とする。
【0026】図4に示すように、代表ベクトル近傍で関
数の傾きが緩くなるように重み付け関数を設定すると、
例えば図5(a)のようなデータは図5(b)のように
クラス代表ベクトル近傍に収縮する(図示しやすいよ
う、一次元密度で示してある)。したがって、クラス分
類が明確になり、誤分類を少なくすることができる。
【0027】また、図5(c)のようにデータが2つの
クラスに分かれていない場合にも、この重み付け関数を
施すと、意図的に代表ベクトルを中心として二つのクラ
スに分類することが可能になる。なお、上記した実施形
態では図示を容易にするために一次元の場合を示した
が、多次元でも同様である。
【0028】上記した第4実施形態によれば、代表ベク
トル近傍で関数の傾きが緩くなるように重み付け関数を
設定するので、データをクラス代表ベクトル近傍に収縮
させることができ、誤分類を更に小さくすることができ
る。特に、ベクトルデータの特徴によらず(あるいは反
して)意図的にクラス分類したい場合にも、誤分類を更
に小さくすることができる。
【0029】(第5実施形態)第5実施形態では、重み
付け関数設定部2が、大きさ設定部22(図3)で設定
された重みの大きさがある一定の値より大きい時にの
み、代表ベクトル近傍で関数の傾きが緩くなるような重
み付け関数を設定する(図4)。ここで、ある一定の値
は、その値以上になると分類結果への効果が大きくなる
値として予め決めておいてもいいし、判定結果評価部6
(図2)での評価結果に基づいて設定してもよい。
【0030】重みの大きさが大きい関数を施すベクトル
成分は相対的に分類に大きく寄与している成分であると
いえるので、図4のような重み付け関数を設定すれば、
分類に大きく寄与している成分を更に効果的に分類に寄
与させることができる。
【0031】上記した第5実施形態によれば、重みの大
きさがある一定の値より大きい時にのみ、代表ベクトル
近傍で関数の傾きが緩くなるように重み付け関数を設定
するので、分類に大きく寄与している成分を、更に効果
的に分類に寄与させることが可能になり、これによって
誤分類を更に小さくすることができる。特に、ベクトル
データの特徴によらず(あるいは反して)意図的にクラ
ス分類したい場合にも、誤分類を更に小さくすることが
できる。
【0032】(第6実施形態)本発明の第6実施形態で
は、重み付け関数設定部2が、代表ベクトル間で関数の
傾きが急峻になるように、図6(a)のような重み付け
関数を設定する。図6(a)のように、代表ベクトル間
で関数の傾きが急峻になるように重み付け関数を設定す
ると、クラス間の距離を相対的に大きくさせることがで
き、また境界付近のデータが散らばることになるのでよ
り精度のよい分類が可能になる。また、図6(b)のよ
うに、同時に代表ベクトル近傍で関数の傾きが緩やかに
なるように設定してももちろんよい。
【0033】上記した第6実施形態によれば、代表ベク
トル間で関数の傾きが急峻になるように重み付け関数を
設定するので、クラス間の距離を相対的に大きくさせる
ことができ、また境界付近のデータを拡散させることが
できるので、誤分類を更に小さくすることができる。特
に、ベクトルデータの特徴によらず(あるいは反して)
意図的にクラス分類したい場合にも、誤分類を更に小さ
くすることができる。
【0034】(第7実施形態)第7実施形態では、重み
付け関数設定部2が、大きさ設定部22で設定された重
みの大きさがある一定の値より大きい時にのみ、図6
(a)、(b)のような代表ベクトル間で関数の傾きが
急峻になるような重み付け関数を設定する。ここで、あ
る一定の値は、その値以上になると分類結果への効果が
大きくなる値として予め決めておいてもいいし、判定結
果評価部6での評価結果に基づいて設定してもよい。
【0035】重みの大きさが大きい関数を施すベクトル
成分は相対的に分類に大きく寄与している成分であると
いえるので、図6(a)、(b)のような重み付け関数
を設定すれば、分類に大きく寄与している成分を更に効
果的に分類に寄与させることができる。
【0036】上記した第7実施形態によれば、重みの大
きさがある一定の値より大きい時にのみ、代表ベクトル
間で関数の傾きが急峻になるように重み付け関数を設定
するので、分類に大きく寄与している成分を、更に効果
的に分類に寄与させることが可能になり、これによって
誤分類を更に小さくすることができる。特に、ベクトル
データの特徴によらず(あるいは反して)意図的にクラ
ス分類したい場合にも、誤分類を更に小さくすることが
できる。
【0037】(第8実施形態)図7は本発明の第8実施
形態の構成を示す図であり、図1に示した各ブロックの
中身を具体化した実施形態となっている。ベクトル入力
部1は、入力ベクトルを記憶しておく記憶用メモリ10
0からなる。記憶用メモリ100は、フロッピーディス
クやMOディスク、あるいはコンピュータ内の内蔵メモ
リのようなものでもよい。
【0038】次に重み付け関数設定部2で、入力ベクト
ルaに施すべき重み付け関数を設定するが、ここでの重
み付け関数設定部2は、関数を設定する演算を行う関数
設定演算器200、関数を設定する操作を行う関数設定
操作器202、重み付け関数用メモリ201から構成さ
れる。
【0039】関数設定操作器202によって、どのベク
トル成分を強調するか、どのベクトル成分をどのように
分類すれば良いかの情報を、関数を設定する演算を行う
関数設定演算器200に送り、関数設定演算器200で
その情報に基づき、良好な分類性能が得られるように重
み付け関数を作成し、重み付け関数用メモリ201に作
成した重み付け関数データを記録する。
【0040】関数設定操作器202における、どのベク
トル成分を強調するか、そのベクトル成分をどのように
分類すれば良いのかの情報は、例えば前述の図17で説
明した領域分割の例でいえば、形に注目するべきなの
で、形に注目するように、特徴量のうちの形に関連する
ベクトル成分を強調するようにし、かつ、そのうちの丸
と三角と四角を分類するような情報を設定することにな
る。なお、もし、この画像がカラー画像であり、色によ
って分類したい場合は、形に注目すると間違った分類を
してしまう。そこで色に注目するように、特徴量のうち
色に関連するベクトル成分を強調し、かつそのうちの該
当する色(例:赤、青、黄)を分類するような情報を設
定すれば良い。
【0041】関数設定演算器200は、専用のプロセッ
サを使用してもよいし、プログラムを読み込んだCPU
が計算するようにしてもよい。なお、以下で挙げる演算
器はすべてこのようなデバイスで実現できる。一方、関
数設定操作器202は、キーボード、マウス、切り替え
スイッチなどで実現し、重み付け関数用メモリ201は
例えばコンピュータの内蔵メモリを用いればよい。
【0042】次に入力ベクトル変換部3において、入力
ベクトルaと重み付け関数bから、変換後の入力ベクト
ルcを作成する。ここでの入力ベクトル変換部3は、デ
ータ変換演算を行うデータ変換演算器300、変換済み
のベクトルデータを記録する変換済みベクトルデータ用
メモリ301からなる。データ変換演算器300によっ
て、入力ベクトルaと重み付け関数bから変換後の入力
ベクトルcが作成され、変換済みベクトルデータ用メモ
リ301に記録される。
【0043】次にクラス判定部4において、変換後の入
力ベクトルcの各ベクトルに対しクラスが判定される
が、ここでのクラス判定部4はクラス判定演算器400
からなる。クラス判定演算器400は、クラス判定がで
きる演算器なら何でもよい。最も一般的な方法には、ク
ラスの代表点を設定して、データからもっとも近い代表
点のクラスをそのデータのクラスにする最隣接近傍法が
ある。このプログラムを組み込んだCPUや専用のプロ
セッサを用いれば良い。また、教師付きNN(神経回路
網)であるBP法、LVQ法などを用いて、このプログ
ラムを組み込んだCPUや専用のプロセッサを用いても
よい。教師付きNNには、専用のニューロチップなども
開発されているのでそのような素子を用いてももちろん
よい。
【0044】続いて、判定された各ベクトルのクラスは
クラス出力部5から出力される。ここでのクラス出力部
5はクラス出力器500からなる。クラス出力器500
は、このクラス分類装置をどのような用途に使うかによ
って様々な形態で実現される。例えば、ベクトルデータ
の解析用に用いるのであれば、クラス出力器500には
フロッピーディスクやMOディスクなどを用いてデータ
を記録すれば良い。領域分割に用いるのであれば、クラ
ス出力器500としてCRT画面を用いて、画面表示す
ればよい。クラスの情報を更に加工して、迅速に次の処
理を行うロボットビジョンなどに用いる場合は、クラス
出力器500としてロボットの内蔵メモリを用いればよ
い。
【0045】上記した第8実施形態によれば、ベクトル
の各成分を単純に定数倍するだけでなく、ベクトルの各
成分に対して重み関数を施すので、その変換後の出力を
各成分の値に依存させることができる。したがって、ベ
クトルデータがクラスタ(データの房状の固まり)を形
成し、きれいにクラス毎に分離しやすくなっている場合
だけでなく、ベクトルデータが散逸しクラスタ(データ
の房状の固まり)をはっきり形成せずクラス毎に分離し
にくい場合や、ベクトルデータの特徴によらず(あるい
は反して)意図的にクラス分類したい場合にも、誤分類
を小さくすることができる。
【0046】(第9実施形態)図8は本発明の第9実施
形態の構成を示す図であり、図2に示した各ブロックの
中身を具体化した実施形態となっており、第8実施形態
においてクラス判定部4において判定したクラス結果を
判定結果評価部6に入力して評価し、重み付け関数設定
部2において評価結果に基づき重み付け関数を再設定す
る。
【0047】ここでの判定結果評価部6は、クラス結果
を記録するクラス結果用メモリ600、クラス結果を評
価する評価演算器601、その評価に基づき重み付け関
数を再設定するための操作を設定する再設定操作設定演
算器602からなる。評価演算器601において、クラ
スが予め分っているベクトルにつきクラス結果用メモリ
600に記録されたクラスのデータと、予め分っている
クラスを比較し、誤分類率を評価演算器601で計算す
る。その結果に基づいて、再設定操作設定演算器602
では、誤分類率が高いデータを解析し、そのデータの誤
分類が少なくなるように重み付け関数を再設定するため
の操作を設定する。
【0048】その操作情報を重み付け関数設定部2の関
数設定操作器202に送り、関数設定操作器202から
の入力により、関数設定演算器200で、重み付け関数
bを計算する。なお、関数設定操作器202は第8実施
形態ではキーボードなどで実現されているが、ここでは
自動スイッチなどの自動設定回路により実現することに
より、重み付け関数bが自動的に設定されるようにして
もよい。
【0049】上記した第9実施形態によれば、ベクトル
の各成分に対して施す重み関数をクラス判定結果によっ
て再調整することが可能になるので、誤分類を更に小さ
くすることができる。
【0050】(第10実施形態)図9は本発明の第10
実施形態の構成を示す図であり、図3に示した関数設定
部20、代表ベクトル設定部21、大きさ設定部22の
各ブロックの中身を具体化した実施形態となっている。
関数設定部20は関数を作成する関数設定演算器200
と、作成された関数を記憶する重み付け関数用メモリ2
01からなり、代表ベクトル設定部21は代表ベクトル
を設定する代表ベクトル設定演算器210と、設定され
た代表ベクトルを記憶する代表ベクトル用メモリ211
とからなる。また、大きさ設定部22は大きさを設定す
る大きさ設定演算器220と、設定された大きさを記憶
する大きさ用メモリ221からなる。
【0051】まず代表ベクトル設定部21について説明
する。代表ベクトルの設定の方法はいろいろ考えられる
が、例えばベクトル記憶用メモリ100から、あるクラ
スに属する入力ベクトルを適当に選択しても良いし、同
一クラス内の複数個のベクトルを選択し、その平均を求
め代表ベクトルとしても良い。また、標準パターンとし
て予め、本装置の外で求められたものを設定しても良
い。代表ベクトル設定演算器210で作成された代表ベ
クトルは代表ベクトル用メモリ211に記憶される。
【0052】続いて大きさ設定部22について説明す
る。重みの大きさの設定の方法はいろいろ考えられる
が、例えばベクトル記憶用メモリ100から、各クラス
毎に入力ベクトルを抽出し、各成分毎にクラス内分散を
計算し、クラス内分散の小さいものを分類に効果のある
ものと推定して重みの大きさを大きく設定し、クラス内
分散の大きいものを分類に効果のないものと推定して重
みの大きさを小さく設定しても良い。また、各成分毎に
クラス間分散を計算し、クラス間分散の小さいものを分
類に効果のないものと推定して重みの大きさを小さく設
定し、クラス間分散の大きいものを分類に効果のあるも
のと推定して重みの大きさを大きく設定しても良い。も
ちろん両者を組み合わせ、クラス内分散とクラス外分散
の比をもとに設定しても良い。
【0053】また、ベクトル記憶用メモリ100の入力
ベクトルを用いずに、例えば色についての成分を強調し
たいという意図を反映させるため、図7で説明したキー
ボードなどの関数設定操作器202を大きさ設定部22
内に設置して、その情報を元に大きさ設定演算器220
で大きさを設定しても良い。また、判定結果評価部6の
結果を受けて、代表ベクトルや重みの大きさを再設定し
てもよい。このように判定結果評価部6の情報をフィー
ドバックすれば、データを分類しながら更に分類能力が
あがるよう、学習効果を得ることが可能になる。設定さ
れた重みの大きさは大きさ用メモリ221に記憶され
る。
【0054】関数を作成する関数設定演算器200で
は、代表ベクトルの値と大きさの値をもとに分類結果が
最適になるように関数を設定・作成し、重み付け関数用
メモリ201に作成された関数を記憶する。なお、分類
結果が最適になるようにするには、例えば、ベクトルデ
ータが代表点付近に集まるように関数を設定してもよい
し、クラス境界付近での分離能力があがるように、境界
付近でデータが相対的に拡散するように関数を設定して
もよい。
【0055】上記した第10実施形態によれば、クラス
の代表ベクトルと重みの大きさの情報を合成して重み付
け関数を設定するので、ベクトルデータの特徴によらず
(あるいは反して)意図的にクラス分類したい場合に
も、誤分類を更に小さくすることができる。
【0056】(第11実施形態)図10は本発明の第1
1実施形態の構成を示す図である。第11実施形態は上
記した第10実施形態において、重み付け関数設定部2
の関数設定部20を、代表ベクトルの近傍値を設定する
代表ベクトル近傍値演算器202と、その値を記憶する
近傍値用メモリ203と、近傍値と代表ベクトルと重み
の大きさを用いて関数を設定する関数設定演算器200
と、作成された重み付け関数を記憶する重み付け関数用
メモリ201とにより構成する。
【0057】代表ベクトル近傍値演算器202では、図
4に示すような代表ベクトル付近での関数の傾きを緩や
かにすべき範囲を指定する。この近傍値が大きいと、代
表ベクトル付近の広く広がったデータを代表ベクトル付
近により強く収縮させる効果をもつことになる。また、
傾きを緩やかにするほど、データを代表ベクトル付近に
より強く収縮させる効果をもつ。
【0058】なお、この重み付け関数は、図4のような
連続した関数をテーブルデータとして作成してもよい
し、例えば次のような簡単な数式を用いて作成してもよ
い。xを入力ベクトルの一つの成分、yを変換後の成
分、Wを重みの大きさ、a1,a2を第1,第2クラス
の代表ベクトルの対応成分、Aを代表ベクトル近傍値と
する。また、*は乗算を表す。
【0059】 x<a1−A :y=W*x a1−A≦x≦a1+A:y=1/2*W*x+1/2
*W*a1 a1+A<x<a2−A :y=W*x a2−A≦x≦a2+A:y=1/2*W*x+1/2
*W*a2 a2+A<x :y=W*x この関数を図示すると、図11のようになる。なお、こ
の例では代表ベクトル付近の傾きが半分になるよう設定
したが、傾きを緩やかにするように任意の値に設定して
よい。
【0060】上記した第11実施形態によれば、代表ベ
クトル近傍で関数の傾きが緩くなるように重み付け関数
を設定するので、データをクラス代表ベクトル近傍に収
縮させることができ、誤分類を更に小さくすることがで
きる。特に、ベクトルデータの特徴によらず(あるいは
反して)意図的にクラス分類したい場合にも、誤分類を
更に小さくすることができる。
【0061】(第12実施形態)図12は本発明の第1
2実施形態の構成を示す図である。第12実施形態で
は、上記した第11実施形態において、大きさ設定部2
2が、前述の大きさ設定演算器220と大きさ用メモリ
221の他に、代表ベクトル近傍で傾きが緩やかになる
関数を乗算するかどうかのしきい値を設定するしきい値
設定演算器222と、そのしきい値を記憶するしきい値
用メモリ223と、大きさメモリ221内に記憶された
重みの大きさとしきい値により関数をどのように設定す
るかを判定する関数判定演算器224とを備えている。
【0062】例えば、あるしきい値(Bとする)より重
みの大きさが大きいとき(W1>=B)は、その成分が
分類に大きく寄与していると判断して、さらにクラス分
類能力が上がるように重み付け関数を図13(a)のよ
うに設定し、あるしきい値より重みの大きさが小さいと
き(W1<B)は、その成分が分類にあまり寄与してい
ないと判断して重み付け関数を図13(b)のように設
定する。
【0063】ここで、あるしきい値は予め設定しておい
てもよいし、判定結果評価部6の結果を受けて再設定し
てもよい。このように判定結果評価部6の情報をフィー
ドバックすれば、データを分類しながらさらに分類能力
があがるように学習効果を得ることが可能になる。
【0064】上記した第12実施形態によれば、重みの
大きさがある一定の値より大きい時にのみ、代表ベクト
ル近傍で関数の傾きが緩くなるように重み付け関数を設
定するので、分類に大きく寄与している成分を、更に効
果的に分類に寄与させることが可能になり、これによっ
て更に誤分類を小さくすることができる。特に、ベクト
ルデータの特徴によらず(あるいは反して)意図的にク
ラス分類したい場合にも、誤分類を更に小さくすること
ができる。
【0065】(第13実施形態)図14は本発明の第1
3実施形態の構成を示す図であり、図6(a)、図6
(b)に示すような重み付け関数を作成するものであ
る。第13実施形態では、重み付け関数設定部2の関数
設定部20が、代表ベクトル間の傾き値を設定する代表
ベクトル間傾き値演算器204と、その値を記憶する傾
き値用メモリ205と、傾き値と代表ベクトルと重みの
大きさを用いて重み付け関数を設定する関数設定演算器
200と、設定された重み付け関数を記憶する重み付け
関数用メモリ201から構成される。
【0066】代表ベクトル間傾き値演算器204では、
図6(a)、(b)に示すような代表ベクトル間での傾
きの急峻の度合いを指定する。この急峻の度合いを相対
的に大きくすると、クラス間の距離を相対的に大きくさ
せることができ、また境界付近のデータを拡散させるこ
とができる。
【0067】上記した第13実施形態によれば、代表ベ
クトル間での関数の傾きが急峻になるように重み付け関
数を設定するので、クラス間の距離を相対的に大きくさ
せることができ、また境界付近のデータを拡散させるこ
とができるので、誤分類を更に小さくすることができ
る。特に、ベクトルデータの特徴によらず(あるいは反
して)意図的にクラス分類したい場合にも、誤分類を更
に小さくすることができる。
【0068】(第14実施形態)図15は本発明の第1
4実施形態の構成を示す図である。第14実施形態は第
13の実施形態において大きさ設定部22が、前述の大
きさ設定演算器220と大きさ用メモリ221の他に、
代表ベクトル間での関数の傾きが急峻になるような重み
付け関数をかけるかどうかのしきい値を設定するしきい
値設定演算器222と、そのしきい値を記憶するしきい
値用メモリ223と、大きさメモリ221内に記憶され
た重みの大きさとしきい値から関数をどのように設定す
るかを判定する関数判定演算器224とを備えている。
【0069】例えば、あるしきい値(Bとする)より重
みの大きさが大きいとき(W1≧B)は、その成分が分
類に大きく寄与していると判断して、さらにクラス分類
能力が上がるように重み付け関数を図16(a)のよう
に設定し、あるしきい値より重みの大きさが小さいとき
(W1<B)は、その成分が分類にあまり寄与していな
いと判断して重み付け関数を図16(b)のように設定
する。
【0070】ここで、あるしきい値は予め設定しておい
てもよいし、判定結果評価部6の結果を受けて再設定し
てもよい。このように判定結果評価部6の情報をフィー
ドバックすれば、データを分類しながらさらに分類能力
があがるよう、学習効果を得ることが可能になる。
【0071】上記した第14実施形態によれば、重みの
大きさがある一定の値より大きい時にのみ、代表ベクト
ル間での関数の傾きが急峻になるような重み付け関数を
設定するので、分類に大きく寄与している成分を、更に
効果的に分類に寄与させることが可能になり、これによ
って誤分類を更に小さくすることができる。特に、ベク
トルデータの特徴によらず(あるいは反して)意図的に
クラス分類したい場合にも、誤分類を更に小さくするこ
とができる。
【0072】なお、これまで述べた各実施形態の構成に
ついては、当然、各種の変形、変更が可能である。例え
ば、上述の実施形態では重み関数としてW(X)とい
う、入力ベクトルの一つの成分からなるものを用いた
が、複数個の成分からなるもの、すなわち、W(X1、
X2、…、Xm):X1、X2、…、Xmは入力ベクトルの
各成分、としても構わない。
【0073】また、本実施形態の応用例は画像認識、画
像の領域分割、画像検索などの画像関連に限られるもの
ではなく、音声認識、音声検索、文字認識、文字検索、
匂いセンサー解析、圧力センサー解析など、特徴量を扱
うものであればどのような分野にも応用することが可能
である。
【0074】(付記)上記した具体的実施形態から以下
のような構成の発明が抽出される。
【0075】1.クラス分類すべきベクトルデータを入
力するベクトル入力部と、入力ベクトルの各成分に対し
て施すべき重み関数を設定する重み付け関数設定部と、
この重み付け関数設定部によって設定された重み付け関
数に基づいて、入力ベクトルを変換する入力ベクトル変
換部と、変換後の入力ベクトルをクラス判定するクラス
判定部と、このクラス判定部によって判定されたクラス
を出力するクラス出力部とを具備することを特徴とする
クラス分類装置。
【0076】2.前記クラス判定部において判定したク
ラスを評価する判定結果評価部を有し、前記重み付け関
数設定部は、この判定結果評価部での評価に基づいて、
重み付け関数を再設定することを特徴とする1.に記載
のクラス分類装置。
【0077】3.前記重み付け関数設定部は、クラスの
代表ベクトルを設定する代表ベクトル設定部と、重みの
大きさを設定する大きさ設定部と、前記代表ベクトル設
定部によって設定された代表ベクトルと、前記大きさ設
定部によって設定された重みの大きさとに基づき、重み
付け関数を設定する関数設定部とを具備することを特徴
とする1.または2.に記載のクラス分類装置。
【0078】4. 前記重み付け関数設定部は、代表ベ
クトル近傍で関数の傾きが緩くなるように重み付け関数
を設定することを特徴とする3.に記載のクラス分類装
置。
【0079】5. 前記重み付け関数設定部は、前記大
きさ設定部で設定された重みの大きさがある一定の値よ
り大きい時にのみ、代表ベクトル近傍で関数の傾きが緩
くなるように重み付け関数を設定することを特徴とする
4.に記載のクラス分類装置。
【0080】6. 前記重み付け関数設定部は、代表ベ
クトル間で関数の傾きが急峻になるように重み付け関数
を設定することを特徴とする3.に記載のクラス分類装
置。
【0081】7. 前記重み付け関数設定部は、前記大
きさ設定部で設定された重みの大きさがある一定の値よ
り大きい時にのみ、代表ベクトル間で関数の傾きが急峻
になるように重み付け関数を設定することを特徴とする
6.に記載のクラス分類装置。
【0082】
【発明の効果】本発明によれば、ベクトルデータが散逸
しクラスタ(データの房状の固まり)をはっきり形成し
ないためクラス毎に分離しにくい場合、あるいはベクト
ルデータの特徴によらず(あるいは反して)意図的にク
ラス分類したい場合にも、精度よくベクトルデータを複
数個のクラスにクラス分類できる。
【図面の簡単な説明】
【図1】本発明の第1実施形態の構成を示す図である。
【図2】本発明の第2実施形態の構成を示す図である。
【図3】本発明の第3実施形態の構成を示す図である。
【図4】本発明の第3実施形態における重み付け関数の
設定方法を説明するための図である。
【図5】本発明の第4実施形態の効果について説明する
ための図である。
【図6】本発明の第6実施形態を説明するための図であ
る。
【図7】本発明の第8実施形態の構成を示す図である。
【図8】本発明の第9実施形態の構成を示す図である。
【図9】本発明の第10実施形態の構成を示す図であ
る。
【図10】本発明の第11実施形態の構成を示す図であ
る。
【図11】本発明の第11実施形態の重み付け関数を図
示した図である。
【図12】本発明の第12実施形態の構成を示す図であ
る。
【図13】本発明の第12実施形態の作用を説明するた
めの図である。
【図14】本発明の第13実施形態の構成を示す図であ
る。
【図15】本発明の第14実施形態の構成を示す図であ
る。
【図16】本発明の第14実施形態の作用を説明するた
めの図である。
【図17】従来のクラス分類の手順を説明するためのフ
ローチャートである。
【図18】従来のクラス分類方法の欠点を示す図であ
る。
【図19】誤分類を少なくする従来の一クラス分類方法
を説明するための図である。
【図20】従来のクラス分類方法では誤分類を少なくで
きない理由について説明するための図である。
【図21】従来のクラス分類方法では誤分類を少なくで
きない他の理由について説明するための図である。
【符号の説明】
1 ベクトル入力部 2 重み付け関数設定部 3 入力ベクトル 4 クラス判定部 5 クラス出力部 6 判定結果評価部 20 関数設定部 21 代表ベクトル設定部 22 大きさ設定部

Claims (3)

    【特許請求の範囲】
  1. 【請求項1】 クラス分類すべきベクトルデータを入力
    するベクトル入力部と、 入力ベクトルの各成分に対して施すべき重み関数を設定
    する重み付け関数設定部と、 この重み付け関数設定部によって設定された重み付け関
    数に基づいて、入力ベクトルを変換する入力ベクトル変
    換部と、 変換後の入力ベクトルをクラス判定するクラス判定部
    と、 このクラス判定部によって判定されたクラスを出力する
    クラス出力部とを具備することを特徴とするクラス分類
    装置。
  2. 【請求項2】 前記クラス判定部において判定したクラ
    スを評価する判定結果評価部を有し、前記重み付け関数
    設定部は、この判定結果評価部での評価に基づいて、重
    み付け関数を再設定することを特徴とする請求項1記載
    のクラス分類装置。
  3. 【請求項3】 前記重み付け関数設定部は、クラスの代
    表ベクトルを設定する代表ベクトル設定部と、重みの大
    きさを設定する大きさ設定部と、前記代表ベクトル設定
    部によって設定された代表ベクトルと、前記大きさ設定
    部によって設定された重みの大きさとに基づき、重み付
    け関数を設定する関数設定部とを具備することを特徴と
    する請求項1または2記載のクラス分類装置。
JP2000046341A 2000-02-23 2000-02-23 クラス分類装置 Pending JP2001236339A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000046341A JP2001236339A (ja) 2000-02-23 2000-02-23 クラス分類装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000046341A JP2001236339A (ja) 2000-02-23 2000-02-23 クラス分類装置

Publications (1)

Publication Number Publication Date
JP2001236339A true JP2001236339A (ja) 2001-08-31

Family

ID=18568772

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000046341A Pending JP2001236339A (ja) 2000-02-23 2000-02-23 クラス分類装置

Country Status (1)

Country Link
JP (1) JP2001236339A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003092283A1 (fr) * 2002-04-26 2003-11-06 Sony Corporation Procede et dispositif de conversion de donnees, procede et dispositif d'apprentissage, et support d'enregistrement
WO2003092284A1 (fr) * 2002-04-26 2003-11-06 Sony Corporation Procede et dispositif de conversion de donnees, procede et dispositif d'apprentissage, logiciel, et support d'enregistrement

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0423088A (ja) * 1990-05-17 1992-01-27 Sharp Corp ニューラルネットワークの前処理装置
JPH0468482A (ja) * 1990-07-10 1992-03-04 Kawasaki Steel Corp 文字認識方法及びその装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0423088A (ja) * 1990-05-17 1992-01-27 Sharp Corp ニューラルネットワークの前処理装置
JPH0468482A (ja) * 1990-07-10 1992-03-04 Kawasaki Steel Corp 文字認識方法及びその装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003092283A1 (fr) * 2002-04-26 2003-11-06 Sony Corporation Procede et dispositif de conversion de donnees, procede et dispositif d'apprentissage, et support d'enregistrement
WO2003092284A1 (fr) * 2002-04-26 2003-11-06 Sony Corporation Procede et dispositif de conversion de donnees, procede et dispositif d'apprentissage, logiciel, et support d'enregistrement
CN1293757C (zh) * 2002-04-26 2007-01-03 索尼株式会社 数据转换设备和数据转换方法、学习设备和学习方法
CN1306807C (zh) * 2002-04-26 2007-03-21 索尼株式会社 数据转换装置及方法、学习设备及方法
US7679675B2 (en) 2002-04-26 2010-03-16 Sony Corporation Data converting apparatus, data converting method, learning apparatus, leaning method, program, and recording medium
US8355603B2 (en) 2002-04-26 2013-01-15 Sony Corporation Data converting apparatus and data converting method, learning device and learning method, and recording medium

Similar Documents

Publication Publication Date Title
CN109918969B (zh) 人脸检测方法及装置、计算机装置和计算机可读存储介质
JP3118725B2 (ja) 自動分類方法
US8180161B2 (en) Image classification device and image classification program
US6738494B1 (en) Method for varying an image processing path based on image emphasis and appeal
EP2064677B1 (en) Extracting dominant colors from images using classification techniques
EP1775683A1 (en) Object image detection device, face image detection program, and face image detection method
JP6192271B2 (ja) 画像処理装置、画像処理方法及びプログラム
US7457432B2 (en) Specified object detection apparatus
US9418440B2 (en) Image segmenting apparatus and method
JP4098021B2 (ja) シーン識別方法および装置ならびにプログラム
WO2019026104A1 (ja) 情報処理装置、情報処理プログラム及び情報処理方法
JP7479007B2 (ja) 画像からぶどう粒を検出する情報処理装置、プログラム、システム、及び方法
JP3708042B2 (ja) 画像処理方法及びプログラム
JP2014010633A (ja) 画像認識装置、画像認識方法、及び画像認識プログラム
JP2001236339A (ja) クラス分類装置
JP2022129792A (ja) 領域変換装置、領域変換方法及び領域変換システム
US20230237379A1 (en) Similarity degree calculation device, similarity degree calculation method, and non-transitory computer-readable recording medium
Ding et al. Object as distribution
CN111160372A (zh) 一种基于高速卷积神经网络的大目标识别方法
WO2024024175A1 (ja) 判定評価装置、方法、およびプログラム
JP2754937B2 (ja) 概略画像作成方法および装置
US20230177716A1 (en) Information processing device, non-transitory computer-readable storage medium, and information processing method
WO2021038840A1 (ja) 物体数推定装置、制御方法、及びプログラム
US20240070870A1 (en) Image processing apparatus, image processing method, and non-transitory storage medium
JP7549841B2 (ja) 画像処理装置、画像認識装置、画像処理プログラム、及び画像認識プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100413

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100803