[go: up one dir, main page]

JPH0981536A - Pattern recognition method and apparatus - Google Patents

Pattern recognition method and apparatus

Info

Publication number
JPH0981536A
JPH0981536A JP7231433A JP23143395A JPH0981536A JP H0981536 A JPH0981536 A JP H0981536A JP 7231433 A JP7231433 A JP 7231433A JP 23143395 A JP23143395 A JP 23143395A JP H0981536 A JPH0981536 A JP H0981536A
Authority
JP
Japan
Prior art keywords
data
fuzzy
rule
fuzzy rule
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7231433A
Other languages
Japanese (ja)
Inventor
Shigeo Abe
重夫 阿部
Ratsuku Taauonmatsuto
ラック ターウォンマット
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP7231433A priority Critical patent/JPH0981536A/en
Publication of JPH0981536A publication Critical patent/JPH0981536A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

(57)【要約】 【目的】 教師データからファジィルールを直接、抽出
し、汎化能力の高いパターン認識を実現するパターン認
識方法及び装置を提供すること。 【構成】 入出力データファイル107を用いて、デー
タ分割手段104で入力データをクラスタに分割して、
ルール抽出手段105により入出力データファイル10
7と分割データファイル108から、クラスタ毎にファ
ジィルールを抽出し、ルール調整手段106でファジィ
ルールの調整を行い、ファジィルールファイル109を
用いてファジィルール推論手段102によりパターン認
識を行う。
(57) [Abstract] [Purpose] To provide a pattern recognition method and device for directly extracting fuzzy rules from teacher data and realizing pattern recognition with high generalization ability. [Structure] Using the input / output data file 107, the data dividing unit 104 divides the input data into clusters,
Input / output data file 10 by rule extraction means 105
7 and the divided data file 108, a fuzzy rule is extracted for each cluster, the fuzzy rule is adjusted by the rule adjusting means 106, and the fuzzy rule inferring means 102 performs pattern recognition using the fuzzy rule file 109.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、パターン認識方法及び
装置に関し、特にファジィ推論によりパターン認識を行
うのに好適なパターン認識方法及び装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a pattern recognition method and apparatus, and more particularly to a pattern recognition method and apparatus suitable for performing pattern recognition by fuzzy inference.

【0002】[0002]

【従来の技術】文字の特徴量を入力して文字を認識す
る、あるいは機器の状態を入力して機器の異常を診断す
るパターン認識システムを構築するのに多層構造のニュ
ーラルネット、あるいはファジィ推論が適していると言
われている。ニューラルネットはエム。アイ。ティープ
レス(1986年)パラレルディストリビューティッドプロセ
シング第318頁から362頁(Parallel Distributed
Processing, Vol. 1, MITPress, CambridgeMA, 1986,
pp. 318−362) において論じられているように、入力
と出力のデータを組とした教師データを用いて学習によ
り、ニューラルネットが構築できるため、問題特有のア
ルゴリズムを開発する必要がないという大きな利点を持
っている。
2. Description of the Related Art A neural network having a multilayer structure or fuzzy inference is used to construct a pattern recognition system for recognizing a character by inputting a feature amount of a character or diagnosing an abnormality of a device by inputting a state of a device. It is said to be suitable. Neural net is M. Eye. Tea Press (1986) Parallel Distributed Processing, pages 318-362 (Parallel Distributed
Processing, Vol. 1, MITPress, CambridgeMA, 1986,
As discussed in (pp. 318-362), a neural network can be constructed by learning using teacher data that is a set of input and output data, so there is no need to develop a problem-specific algorithm. Have an advantage

【0003】またこれに対してファジィルールにより推
論するファジィ推論を用いると、小規模で専門家の知識
が豊富な分野では、容易にパターン認識システムが構築
できるという利点がある。ファジィ推論ではファジィル
ールを獲得するのが難しいという問題を解決する方法と
して、専門家からでなく、ニューラルネットと同じく教
師データから行う方法もいくつか提案されている。例え
ば、アイトリプルイー・トランザクション・オン・ファ
ジィシステムズ第3巻1号第18頁から第28頁(IEEE
Trans. Fuzzy Systems, Vol. 3, No. 1, pp。 18−28,
1995)では、教師データを用いて超直方体でデータの存
在領域を近似する方法を取っている。この方法では、各
クラスに属する教師データの最小値と最大値を計算して
超直方体を定義し、クラス間の超直方体に重なりがあれ
ば、重なった部分を禁止領域として定義し、さらに禁止
領域内にこれらのクラスのデータがあれば、さらに同様
に超直方体を定義することによりファジィルールを抽出
する。
On the other hand, the use of fuzzy reasoning, which is based on fuzzy rules, has an advantage that a pattern recognition system can be easily constructed in a small-scale field in which expert knowledge is abundant. As a method of solving the problem that it is difficult to acquire a fuzzy rule by fuzzy reasoning, some methods have been proposed not by an expert but by a teacher data like a neural network. For example, Eye Triple E Transaction on Fuzzy Systems Vol. 3, No. 1, pp. 18 to 28 (IEEE
Trans. Fuzzy Systems, Vol. 3, No. 1, pp. 18-28,
In 1995), a method of approximating the existence region of data with a super-cuboid using teacher data is adopted. In this method, the minimum and maximum values of the teacher data belonging to each class are calculated to define a hyper-rectangle, and if there is an overlap in the hyper-rectangles between classes, the overlapped part is defined as a prohibited area, and the prohibited area is further defined. If there are data of these classes inside, fuzzy rules are extracted by defining hypercubes in the same way.

【0004】[0004]

【発明が解決しようとする課題】ニューラルネットを用
いると学習の時間が極めて遅く、また出来上がったニュ
ーラルネットの仕組みがどのようになっているか分から
ないという問題があった。また、上記の超直方体により
ファジィルールを抽出する方法をとると、学習は極めて
高速であり、ファジィルールによりその動きも解析でき
るが、ファジィルールを抽出する教師データと得られた
ファジィルールの性能をテストするテストデータの特性
が大きく異なるときは、テストデータの性能すなわち汎
化能力がニューラルネットより劣るという問題があっ
た。
When a neural network is used, the learning time is extremely slow, and there is a problem that the mechanism of the completed neural network is unknown. In addition, if the method of extracting fuzzy rules by the above-mentioned hypercube is adopted, learning is extremely fast and its movement can be analyzed by fuzzy rules, but the teaching data for extracting fuzzy rules and the performance of the obtained fuzzy rules are When the characteristics of the test data to be tested greatly differ, there is a problem that the performance of the test data, that is, the generalization ability is inferior to that of the neural network.

【0005】本発明の目的は、上記のニューラルネット
及びファジィ推論の問題点を解決し、入力データと出力
データの組からなる教師データからファジィルールを直
接に抽出し、汎化能力の高いパターン認識を実現できる
方法及び装置を提供することにある。
An object of the present invention is to solve the above-mentioned problems of neural networks and fuzzy inference, to directly extract fuzzy rules from teacher data consisting of a set of input data and output data, and to perform pattern recognition with high generalization ability. It is to provide a method and an apparatus capable of realizing

【0006】[0006]

【課題を解決するための手段】本発明は、(イ)各クラ
スの入力データを分割する(ロ)分割されたデータを用
いて領域を近似することによりファジィルールを抽出す
る(ハ)教師データを用いて近似領域を調整することに
よりファジィルールをチューニングする等に特徴を有す
るものであり、これらの独立した手段、方法のみなら
ず、種々な組合せにもそれぞれ特徴がある。
According to the present invention, (a) input data of each class is divided (b) fuzzy rules are extracted by approximating a region using the divided data (c) teacher data It has a feature of tuning a fuzzy rule by adjusting the approximate region by using, and not only these independent means and methods, but also various combinations have respective features.

【0007】以下、問題を解決するための手段の一例を
説明する。
An example of means for solving the problem will be described below.

【0008】(イ)各クラスの入力データを分割する 同一クラスに属する教師データをそのデータの入力空間
での分布にしたがい、いくつかのクラスタに分割する手
段を設ける。
(B) Dividing the input data of each class Means for dividing the teacher data belonging to the same class into several clusters is provided according to the distribution of the data in the input space.

【0009】(ロ)分割されたデータを用いて領域を近
似することによりファジィルールを抽出する 各クラスタに含まれる教師データの存在領域を近似し、
この近似した領域を一つのファジィルールとして定義す
る手段を設ける。
(B) The fuzzy rule is extracted by approximating the region using the divided data. The region where the teacher data included in each cluster is approximated,
A means for defining the approximated area as one fuzzy rule is provided.

【0010】(ハ)教師データを用いて近似領域を調整
することによりファジィルールをチューニングする (ロ)で求まったファジィルールの近似領域をそのルー
ルの属するクラスに含まれる度合いが大きくなるように
近似領域を調整する手段を設ける。
(C) Tuning the fuzzy rule by adjusting the approximation region using the teacher data The approximation region of the fuzzy rule obtained in (b) is approximated so that the degree to which it is included in the class to which the rule belongs is large. Means are provided for adjusting the area.

【0011】[0011]

【作用】[Action]

(イ)各クラスの入力データを分割する手段 各クラスの教師データを分割することにより、各クラス
の存在領域をより精密に近似できるようになる。
(A) Means for dividing the input data of each class By dividing the teacher data of each class, the existence area of each class can be approximated more accurately.

【0012】(ロ)ファジィルールを抽出する手段 各クラスタに対応してファジィルールを定義することに
より、入力データがそのクラスタに対応するクラスに属
する程度、すなわち成立度が計算でき、ファジィルール
の成立度の最も高いクラスに入力データが属すると判定
することによりパターン認識ができる。
(B) Means for extracting fuzzy rules By defining fuzzy rules corresponding to each cluster, the degree to which the input data belongs to the class corresponding to the cluster, that is, the degree of success can be calculated, and the fuzzy rules are satisfied. Pattern recognition can be performed by determining that the input data belongs to the most frequent class.

【0013】(ハ)ファジィルールの調整手段 教師データに対するパターン認識が正確に行われるよう
に近似領域を調整することにより、教師データのみなら
ず、テストデータに対する認識率を向上することができ
る。
(C) Fuzzy Rule Adjusting Means By adjusting the approximate region so that the pattern recognition for the teacher data can be accurately performed, the recognition rate for not only the teacher data but also the test data can be improved.

【0014】[0014]

【実施例】以下、本発明の実施例を図面を参照して説明
する。図1に本発明の具体的実施例を示す。同図におい
て、101はファジィルール構築手段、102はファジ
ィルール推論手段、103は記憶手段、104はデータ
分割手段、105はルール抽出手段、106はルール調
整手段、107は入出力データファイル、108は分割
データファイル、109はファジィルールファイルであ
る。入出力データファイル107には、パターン認識を
行う対象から収集した入力データと出力データの組から
なる教師データが記憶されている。データ分割手段10
4は入出力データファイル107のデータを分割して分
割データファイル108に分割結果を格納する。ルール
抽出手段105は入出力データファイル107と分割デ
ータファイル108とを用いて分割されたクラスタ毎に
ファジィルールを抽出し、ファジィルールファイル10
9に格納する。ルール調整手段106は入出力データフ
ァイル107、分割データファイル108、およびファ
ジィルールファイル109を用いて、ファジィルールを
調整してその結果をファジィルールファイル109に格
納する。得られたファジィルールはファジィルール推論
手段102により未知の入力に対する出力を推論するの
に用いられる。ここでファジィルール構築手段101と
ファジィルール推論手段102は図1のように組み合わ
せてもよいが、切り離して、オフラインでファジィルー
ル構築手段101でファジィルールを抽出して、得られ
たファジィルールを組み込んだファジィルール推論手段
102でパターン認識システムを構成してもよい。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 shows a specific embodiment of the present invention. In the figure, 101 is fuzzy rule construction means, 102 is fuzzy rule inference means, 103 is storage means, 104 is data division means, 105 is rule extraction means, 106 is rule adjustment means, 107 is input / output data file, and 108 is A divided data file, and 109 is a fuzzy rule file. The input / output data file 107 stores teacher data composed of a set of input data and output data collected from a pattern recognition target. Data dividing means 10
Reference numeral 4 divides the data of the input / output data file 107 and stores the division result in the divided data file 108. The rule extraction means 105 extracts a fuzzy rule for each divided cluster using the input / output data file 107 and the divided data file 108, and the fuzzy rule file 10 is extracted.
9 is stored. The rule adjusting means 106 uses the input / output data file 107, the divided data file 108, and the fuzzy rule file 109 to adjust the fuzzy rule and stores the result in the fuzzy rule file 109. The obtained fuzzy rule is used by the fuzzy rule inference means 102 to infer an output for an unknown input. Here, the fuzzy rule construction means 101 and the fuzzy rule inference means 102 may be combined as shown in FIG. 1, but they may be separated and the fuzzy rule construction means 101 may extract the fuzzy rules offline and incorporate the obtained fuzzy rules. The fuzzy rule inference means 102 may form a pattern recognition system.

【0015】図2に本発明を実施するハードウエア構成
を示す。同図において10は中央処理装置(CPU)、20
はメモリ、30はキーボード、40はCRTターミナルで
ある。データファイル107、108、109およびフ
ァジィルール構築手段101、ファジィルール推論手段
102を実行するプログラムはメモリ20に格納されて
おり、CRTターミナル40からのユーザーの指示により
起動されファジィルール構築手段101によりファジィ
ルールの抽出が、またファジィルール推論手段102に
よりパターン認識が行われる。なおファジィルール推論
手段102は図2のようなスタンドアロンの構成でな
く、システムに組み込んだ構成もとることができる。
FIG. 2 shows a hardware configuration for implementing the present invention. In the figure, 10 is a central processing unit (CPU), 20
Is a memory, 30 is a keyboard, and 40 is a CRT terminal. A program for executing the data files 107, 108, 109 and the fuzzy rule construction means 101 and the fuzzy rule inference means 102 is stored in the memory 20, and is started by the user's instruction from the CRT terminal 40 and the fuzzy rule construction means 101 executes the fuzzy logic. Rule extraction and pattern recognition are performed by the fuzzy rule inference means 102. Note that the fuzzy rule inference means 102 may have a configuration incorporated in the system instead of the stand-alone configuration shown in FIG.

【0016】以下、データ分割手段104、ルール抽出
手段105、ルール調整手段106の実現方式を順に説
明する前に、ファジィ推論システムの構成を示す。m次
元の入力ベクトルxをn個のクラスに分離することを考え
る。このときにクラスi(i=1,・・・,n)がいくつかのクラ
スタijに分割されているとする。ここでクラスタijはク
ラスiのj番目のクラスタであることを意味するとする。
このとき入出力データデータファイル107の構成を図
3に示す。同図において107−1,107−2,・・・,
107−mはM個からなるm次元入力に対応し、107
−oはM個からなる1次元出力に対応する。107−1,
107−2,・・・,107−mのi番目の要素の値はm次元
のi番目の入力データを示し、この入力データが所属す
るクラスが107−oのi番目の要素に定義されている。
このときクラスの数をn個とすると102は1からnまでの
数字のどれかが記述されている。出力データ102は1次元
の代わりにn次元としてクラスiに属するときはi番目の
データを1として残りを0としてもよい。
The structure of the fuzzy inference system will be shown before the method of realizing the data dividing unit 104, the rule extracting unit 105, and the rule adjusting unit 106 is described in order. Consider separating an m-dimensional input vector x into n classes. At this time, it is assumed that the class i (i = 1, ..., N) is divided into some clusters ij. Here, it is assumed that the cluster ij is the j-th cluster of class i.
The structure of the input / output data data file 107 at this time is shown in FIG. In the figure, 107-1, 107-2, ...
107-m corresponds to an m-dimensional input consisting of M, and 107-m
-O corresponds to a one-dimensional output consisting of M pieces. 107-1,
The value of the i-th element of 107-2, ..., 107-m indicates the m-th i-th input data, and the class to which this input data belongs is defined in the i-th element of 107-o. There is.
At this time, assuming that the number of classes is n, 102 is any number from 1 to n. When the output data 102 belongs to class i as n dimensions instead of one dimension, the i-th data may be 1 and the rest may be 0.

【0017】図4に分割データファイル108の構成を
示す。分割データファイル108は入出力データファイ
ル107と同じM個のデータからなりp番目のデータが入
出力データファイル107のp番目のデータのクラスタ
番号を保持している。すなわち、p番目の入力データ1
07−1,・・・,107−m に対応するクラスタ番号ijのi
およびjは各々p番目の出力データファイル107−oとp
番目の分割データファイル108とより求めることがで
きる。
FIG. 4 shows the structure of the divided data file 108. The divided data file 108 is composed of the same M pieces of data as the input / output data file 107, and the pth data holds the cluster number of the pth data of the input / output data file 107. That is, p-th input data 1
I of cluster number ij corresponding to 07-1, ..., 107-m
And j are p-th output data files 107-o and p, respectively.
It can be obtained from the second divided data file 108.

【0018】このときに各々のクラスタ ijに対して次
のルールRijが定義されているとする。ただしcijはクラ
スタijの中心である。
At this time, it is assumed that the following rule Rij is defined for each cluster ij. However, c ij is the center of cluster ij .

【0019】[0019]

【数1】 [Equation 1]

【0020】式(1)の入力xに対するメンバーシップ関
数mij(x)は式(2)〜式(4)で与えられる。ただしdij(x)
はxとcijとの重みつき距離、hij(x)は調整された距離、
αij(>0)はクラスタijの調整パラメータ、cij=(cij,1,
・・・,cij,m)で rij,k はクラスタijのk番目の半径であ
る。
The membership function m ij (x) for the input x in equation (1) is given by equations (2) to (4). Where dij (x)
Is the weighted distance between x and c ij , h ij (x) is the adjusted distance,
α ij (> 0) is the adjustment parameter of cluster ij, c ij = (c ij , 1 ,
..., c ij , m ) where r ij , k is the k-th radius of cluster ij .

【0021】[0021]

【数2】 [Equation 2]

【0022】[0022]

【数3】 (Equation 3)

【0023】[0023]

【数4】 (Equation 4)

【0024】図5にファジィルールファイル109にお
けるファジィルールRijのファイル構成を示す。109
−1はm個の中心の座標 cij,1,・・・, cij,mで、109−2
は半径rij,1 ,・・・, rij,m を109−3 は調整パラメ
ータaij を示す。
FIG. 5 shows the file structure of the fuzzy rules R ij in the fuzzy rule file 109. 109
−1 is m center coordinates c ij , 1 , ..., C ij , m, and 109−2
Indicates a radius r ij , 1 , ..., R ij , m, and 109-3 indicates an adjustment parameter a ij .

【0025】このときのファジィシステムの構成を図6
に示す。同図において204、205、206は式(1)
で示されるファジィルールR11,Rij,Rn1で201、2
02、203はおのおの入力x1、 x2、 xmからファジィ
ルールR11への入力である。
The configuration of the fuzzy system at this time is shown in FIG.
Shown in In the figure, 204, 205, and 206 are equations (1).
The fuzzy rules R 11 , R ij , and Rn 1 indicated by
02 and 203 are inputs to the fuzzy rule R 11 from inputs x 1 , x 2 and x m , respectively.

【0026】ファジィルールRij 205に対して図5の
データが記憶されており、入力xとこのデータを用い
て、式(2)〜(4)を計算してメンバーシップ関数の値を
計算する。このときメンバーシップ関数mkl(x)が最大
のとき入力xはクラスkに属すると判定される。式(2)に
おける指数関数は式(2)の出力の範囲を[0,1]にす
るためである。したがって式(2)の指数関数の入力によ
り入力xを分類するときはhij(x)の最小値を求めればよ
い。この構成は考えられうる構成の中で最も単純な構成
である。ニューラルネットの構成と同程度の性能を実現
するためには、各々のクラスをクラスタに分割する必要
がある。各々のクラスタに対して、そのクラスタに属す
るデータを用いて中心cij、および半径rij,kを推定す
ることができる。ついで、汎化能力をあげるために、正
しく認識されたデータが誤認識するのを許してαijを増
加あるいは減少して教師データの認識率を高める。
The data of FIG. 5 is stored for the fuzzy rule R ij 205, and using the input x and this data, equations (2) to (4) are calculated to calculate the value of the membership function. . At this time, when the membership function m kl (x) is maximum, the input x is determined to belong to the class k. The exponential function in Expression (2) is for setting the output range of Expression (2) to [0, 1]. Therefore, when the input x is classified by the input of the exponential function of the equation (2), the minimum value of h ij (x) should be obtained. This configuration is the simplest possible configuration. Each class must be divided into clusters in order to achieve a performance comparable to that of a neural network. For each cluster, the center c ij and the radius r ij, k can be estimated using the data belonging to that cluster. Then, in order to improve the generalization ability, the recognition rate of the teacher data is increased by allowing the correctly recognized data to be erroneously recognized and increasing or decreasing α ij .

【0027】(イ)各クラスの入力データの分割 図6の出力にさらに線形結合の段を設けたネットをラデ
ィアル基底関数ネットとよぶが、ラディアル基底関数ネ
ットと多層ニューラルネットを比べると多層ニューラル
ネットの方が学習は遅いが汎化能力が高いと言われてい
る。これは多層ネットではシグモイド関数と言われる指
数関数を用いており、入力空間の全域にわたり出力が変
化する大域的な関数であるのに対して、ラディアル基底
関数ネットではガウス関数を用いておりローカルな関数
のためである。したがって、多層ニューラルネットと同
等の汎化能力を得るためには、ガウス関数がカバーする
入力領域ができるだけ大きい必要がある。このため、同
一クラスに属するデータをクラスタに分割する場合、ク
ラスタのデータが極端に少なくならないようにする必要
がある。
(B) Division of input data of each class A net having a linear combination stage at the output of FIG. 6 is called a radial basis function net. When comparing a radial basis function net and a multilayer neural network, a multilayer neural network is compared. Is said to be slower to learn but has higher generalization ability. This is an exponential function called a sigmoid function in a multilayer net, which is a global function whose output changes over the entire input space, whereas a radial basis function net uses a Gaussian function and is a local function. Because of the function. Therefore, in order to obtain the generalization ability equivalent to that of the multilayer neural network, the input area covered by the Gaussian function needs to be as large as possible. Therefore, when dividing data belonging to the same class into clusters, it is necessary to prevent the cluster data from becoming extremely small.

【0028】クラスタリングする方法はいくつか提案さ
れているが、多くは繰り返し法を用いており、また多く
の方法ではクラスタに属するデータの数を調整する方法
を備えていない。このためこれらの方法でクラスタリン
グをするとあるクラスタのデータ数が極端に少なく、あ
るクラスタのデータが極端に多くなる可能性がある。も
し式(2)のパラメータを少ないデータを用いて決めたと
きは、高い汎化能力をあまり期待できない。このため各
々のクラスタに含まれるデータの数が大体同じ程度にな
るように、入力の各軸で分割したときに、分割された2
つのクラスタのデータの数が最も少ない軸で分割するよ
うにする。すなわち、 1) Nc を各々のクラスタに属するデータの数の許容最
大値とする。最初は各々のクラスは1つのクラスタから
なっているとする。
Although some clustering methods have been proposed, most of them use an iterative method, and most of them do not have a method of adjusting the number of data belonging to a cluster. Therefore, when clustering is performed by these methods, the number of data in a certain cluster is extremely small, and the data in a certain cluster may be extremely large. If the parameters of equation (2) are determined using a small amount of data, high generalization ability cannot be expected. Therefore, when the data is divided on each input axis so that the number of data contained in each cluster is about the same, the divided data is divided into two.
Try to divide by the axis with the least number of data in one cluster. That is, 1) Let N c be the maximum allowable value of the number of data belonging to each cluster. Initially, each class consists of one cluster.

【0029】2) クラスタに属するデータの数が Nc
越えるクラスタをクラスタijとして、クラスタijに含ま
れるデータを用いて中心 cij を式(5)のように計算す
る。ただし Nij はクラスタijに含まれるデータの数で
ある。 クラスタijに属するデータを xk =cij,kによ
り分割する。ここで Nij,1 および Nij,2 を xk ≧ c
ij, k および xk < cij,k を満足するデータの数とす
る。このとき |Nij,1−Nij,2|を最小にするkを分割の軸
にする。
2) A cluster whose number of data belonging to the cluster exceeds N c is defined as a cluster ij , and the center c ij is calculated by using the data included in the cluster ij as shown in equation (5). However, N ij is the number of data included in cluster ij . The data belonging to the cluster ij is divided by x k = c ij, k . Where N ij, 1 and N ij, 2 are defined as x k ≧ c
Let ij, k and x k <c ij, k be the number of data items . At this time, k that minimizes | N ij, 1 −N ij, 2 | is the axis of division.

【0030】3)データの数が Ncを越えるクラスタが
無くなるまでステップ2)を繰り返す。
3) Repeat step 2) until there are no clusters whose number of data exceeds N c .

【0031】例えば図7において入力が2次元で210
〜215を6個の教師データとする。このとき x2=c
ij,2 で分割するとデータ数が2個と4個のクラスタに
分割されるが、 x1=cij,1 で分割するとデータ数がど
ちらも3個となるから、x1= cij,1 で分割する。
For example, in FIG. 7, the input is two-dimensional and 210
Let ~ 215 be 6 pieces of teacher data. Then x 2 = c
When divided by ij, 2 , the number of data is divided into two and four clusters, but when divided by x 1 = c ij, 1 , the number of data becomes 3 respectively, so x 1 = c ij, 1 Split with.

【0032】[0032]

【数5】 (Equation 5)

【0033】(ロ)ファジィルールの抽出 各々のクラスタに対して式(1)で与えられるファジィル
ールRijを定義する。この段階では異なるクラスの領域
の重なりは考慮しないで領域を近似する。これらの領域
の重なりはあとでαijを調整するときに解消する。
(B) Extraction of fuzzy rule The fuzzy rule R ij given by the equation (1) is defined for each cluster. At this stage, the regions are approximated without considering the overlapping of regions of different classes. Overlapping of these regions will be eliminated later when adjusting α ij .

【0034】まず、最初に式(5)を用いてクラスタijの
中心cijを計算する。ついで、半径rij,kを式(6)によ
り推定する。ただしθはパラメータ、aij,kはxkの中心c
ij,kからの平均の変位、σij,kはaij,kの分散で式(7),
(8)で与えられる。
First, the center c ij of the cluster ij is calculated using the equation (5). Then, the radius r ij, k is estimated by the equation (6). Where θ is a parameter and a ij, k is the center c of x k
The average displacement from ij, k , σ ij, k is the variance of a ij, k and is given by equation (7),
It is given in (8).

【0035】[0035]

【数6】 (Equation 6)

【0036】[0036]

【数7】 (Equation 7)

【0037】[0037]

【数8】 (Equation 8)

【0038】しかしながらもし中心のまわりでクラスタ
のデータの分布に片寄があれば、得られた楕円領域は教
師データの分布を忠実に近似することができない。例え
ば図8の上の図のように1次元のデータが分布している
とする。250〜253は教師データでそのうえの数字
は座標を示している。θ=0とするとデータの分布によ
り式(5)で計算される中心はx=0に位置する。ついで
式(6)〜(8)によりrij, 1=3となる。図より分かるよ
うに、楕円は中心から正の側に片寄っている。
However, if there is a deviation in the distribution of the cluster data around the center, the obtained elliptical region cannot faithfully approximate the distribution of the teacher data. For example, assume that one-dimensional data is distributed as shown in the upper diagram of FIG. Numerals 250 to 253 are teacher data, and the numbers above them indicate coordinates. When θ = 0, the center calculated by the equation (5) is located at x = 0 based on the data distribution. Then, r ij, 1 = 3 is obtained from the equations (6) to (8). As can be seen from the figure, the ellipse is offset from the center toward the positive side.

【0039】これを避けるために、平均の半径をデータ
が中心の正の側にあるか負の側にあるかにより計算し
て、片寄をなくすように中心を移動して、新しい中心を
用いて半径を再計算する。すなわち、最初に式(9),(1
0)を計算する。ここでa(p)ij, kはxkのcij,kからの平均
の正の片寄り、 a(n)ij,k は xk のcij,kからの平均の
負の片寄り、N(p)ijはクラスタijに属し xk−cij,k>0
を満たすデータの数、 N(n)ij はクラスタijに属し c
ij,k−xk>0を満足するデータの数である。ついで中心
を式(11)のように修正する。
In order to avoid this, the average radius is calculated depending on whether the data is on the positive side or the negative side of the center, the center is moved so as to eliminate the deviation, and the new center is used. Recalculate radius. That is, first, the expressions (9) and (1
0) is calculated. Where a (p) ij, k is the average positive offset of x k from c ij, k , a (n) ij, k is the average negative offset of x k from c ij, k , N (p) ij belongs to cluster ij and x k −c ij, k > 0
N (n) ij is the number of data that satisfy c
It is the number of data satisfying ij, k −x k > 0. Then, the center is corrected as shown in equation (11).

【0040】[0040]

【数9】 [Equation 9]

【0041】[0041]

【数10】 (Equation 10)

【0042】[0042]

【数11】 [Equation 11]

【0043】式(11)、(7)および式(8)を用いて、半
径 rij,k を再計算する。
Using equations (11), (7) and equation (8), the radius r ij, k is recalculated.

【0044】(ハ)ファジィルールの調整 考え方 上述のようにして抽出されたファジィルールはクラス間
の重なりを考えないで定義したために、教師データに対
して認識率が最大になるようにファジィルールを調整す
る必要がある。しかしながら、中心と半径を調整すると
すると、最急降下法によらざるを得ず、時間がかかるこ
とになる。このためファジィルールRijの1つのパラメ
ータαijを調整することにする。もしαijを増やすと式
(2)で与えられるメンバーシップ関数の成立度は増加
し、減少すると成立度は低下する。調整の考え方を示す
ために、図9に示す2つのクラスで1つのクラスに1つ
のルールが定義されたときを考えよう。261はクラス
1のデータ、262はクラス2のデータ、263はクラ
ス1のメンバーシップ関数、264と265は変更され
たクラス1のメンバーシップ関数である。クラス1に属
するデータ261はクラス2に誤認識されている。もし
メンバーシップ関数263を264と265の間に入る
ようにα11を増加するとデータ262を誤認識することな
くデータ261を正しく認識することができる。これは
α21を減少することによっても実現できる。
(C) Adjustment of fuzzy rules The fuzzy rules extracted as described above are defined without considering overlapping between classes. Therefore, the fuzzy rules are set so that the recognition rate is maximized with respect to the teacher data. Need to be adjusted. However, if the center and the radius are adjusted, the steepest descent method must be used and it takes time. Therefore, one parameter α ij of the fuzzy rule R ij will be adjusted. If α ij is increased, the formula
The degree of success of the membership function given in (2) increases, and the degree of success decreases when it decreases. To illustrate the idea of adjustment, consider the case where one class is defined in one of the two classes shown in FIG. 261 is class 1 data, 262 is class 2 data, 263 is a class 1 membership function, and 264 and 265 are modified class 1 membership functions. The data 261 belonging to class 1 is erroneously recognized as class 2. If α 11 is increased so that the membership function 263 falls between 264 and 265, the data 261 can be correctly recognized without misrecognizing the data 262. This can also be achieved by reducing α 21 .

【0045】図10はもっと複雑な例を示す。271、
275はクラス2に属するデータで、272、273、
274はクラス1に属するデータである。また276は
クラス2のメンバーシップ関数、277および278は
変更されたクラス2のメンバーシップ関数である。デー
タ271はクラス2に正しく分類されているが、データ
272、273、274はクラス2に間違って分類され
ている。もしα11を増加あるいはα21を減少するとデー
タ271が最初に誤認識するが、データ271の誤認識
を許すとすると、データ272、273、274を正し
く認識するようにできる。すなわち、クラス2のメンバ
ーシップ関数276を277および278の間にはいる
ようにα21を減少すると、データ271が誤認識するが
データ272、273、274は正しく認識される。こ
れにより認識率がデータ2個だけ改善される。このよう
に、各々のファジィルールRijに対して認識率が改善さ
れるときは正しく認識されるデータが誤認識されること
を許して最適なαijの修正量を決める。このようにして
誤認識率が改善されなくなるまでαijを修正する。この
ように誤認識を許して認識率の改善を図る方法は極小解
に陥るのを防いでいるとも言える。もちろん調整の過程
は非線形であり、この方法で必ず最適解が求まるとの保
証はない。
FIG. 10 shows a more complex example. 271,
275 is data belonging to class 2, 272, 273,
274 is data belonging to class 1. Also, 276 is a class 2 membership function, and 277 and 278 are modified class 2 membership functions. Data 271 is correctly classified as class 2, but data 272, 273, 274 is incorrectly classified as class 2. If α 11 is increased or α 21 is decreased, the data 271 is erroneously recognized first, but if erroneous recognition of the data 271 is permitted, the data 272, 273, 274 can be correctly recognized. That is, when α 21 is decreased so that the class 2 membership function 276 is placed between 277 and 278, the data 271 is erroneously recognized, but the data 272, 273, and 274 are correctly recognized. This improves the recognition rate by two data. As described above, when the recognition rate is improved for each fuzzy rule R ij , data that is correctly recognized is allowed to be erroneously recognized, and the optimum correction amount of α ij is determined. In this way, α ij is corrected until the misrecognition rate cannot be improved. It can be said that the method of allowing the misrecognition to improve the recognition rate as described above prevents the problem from falling into a minimal solution. Of course, the adjustment process is non-linear, and there is no guarantee that an optimal solution will always be obtained by this method.

【0046】αijの上下限 正しく認識されていたl−1個のデータの誤認識を許す
ときのαijの上限 Uij(l)および下限Lij(l)を求める。
入力教師データをファジィルール {Rij} を用いて正し
く分類されたデータの集合Xと誤認識したデータの集合Y
に分割する。ついでクラスiに属する x(∈X)で式(12)
を満たすものを求める。もし式(12)が成立しないとき
はαijを変化させてもxは正しく認識されたままであ
る。もしxがさらに、式(13)を満足するとすると、xを
正しく認識させるための式(14)の下限Lij(x)が存在す
ることになる。
[0046] determining the upper limit U ij (l) and the lower limit L ij (l) of the alpha ij when allowing erroneous recognition of l-1 pieces of data limit was correctly recognized on the alpha ij.
The input teacher data is a set X of data correctly classified by using the fuzzy rule {R ij }, and a set Y of data that is misrecognized.
Split into. Then, with x (∈X) belonging to class i, equation (12)
Seeking something that satisfies. If the equation (12) is not satisfied, x is still correctly recognized even if α ij is changed. If x further satisfies equation (13), there exists a lower limit L ij (x) of equation (14) for correctly recognizing x.

【0047】[0047]

【数12】 (Equation 12)

【0048】[0048]

【数13】 (Equation 13)

【0049】[0049]

【数14】 [Equation 14]

【0050】これを図11を用いて補足する。280、
281、283は各々クラスタij、ik、ofのメンバーシ
ップ関数で282はメンバーシップ関数280の変更さ
れたメンバーシップ関数である。入力xをクラスiに属す
るとすると、メンバーシップ関数280を280と28
2の間にはいるようにαijを減少しても入力xは正しく
認識される。これに対してαijをさらに減少させてメン
バーシップ関数282よりメンバーシップ関数の傾きが
大きくなると入力xは誤認識する。もし式(13)が満た
されないとき、すなわち、式(15)のときはαijを減少
してもxに誤認識は生じない。
This will be supplemented with reference to FIG. 280,
281, 283 are membership functions of the clusters ij, ik, of respectively, and 282 is a modified membership function of the membership function 280. If the input x belongs to the class i, the membership function 280 is given as 280 and 28.
The input x is correctly recognized even if α ij is decreased so that it falls between the two. On the other hand, if α ij is further decreased and the slope of the membership function becomes larger than that of the membership function 282, the input x is erroneously recognized. If the equation (13) is not satisfied, that is, in the case of the equation (15), erroneous recognition does not occur in x even if α ij is decreased.

【0051】[0051]

【数15】 (Equation 15)

【0052】これを図12を用いて説明する。290、
291、292は各々クラスタij、ik、ofのメンバーシ
ップ関数で293はメンバーシップ関数290の変更されたメ
ンバーシップ関数である。入力xをクラスiに属するとす
ると、入力xにおけるメンバーシップ関数291の成立
度の方がメンバーシップ関数292よりも大きいため、
αijを正の範囲でいくら小さくしても入力xは誤認識し
ない。
This will be described with reference to FIG. 290,
291, 292 are membership functions of the clusters ij, ik, of, respectively, and 293 is a modified membership function of the membership function 290. Assuming that the input x belongs to the class i, the degree of satisfaction of the membership function 291 at the input x is larger than that of the membership function 292.
The input x will not be misrecognized no matter how small α ij is in the positive range.

【0053】これより正しく認識されたデータを誤認識
しない下限Lij(1)は、式(16)で与えられる。ここで
議論を簡単にするために異なるxに対してLij(x)は異な
るとする。このときは1つのxで満足される。同様に正
しく認識されたデータが1個誤認識することを許す下限
Lij(2)はLij(x)の中の第2の最小値として式(17)で
与えられる。一般に下限は式(18)で与えられる。
From this, the lower limit L ij (1) that does not erroneously recognize correctly recognized data is given by the equation (16). To simplify the discussion here, we assume that L ij (x) is different for different x. At this time, one x is satisfied. Similarly, the lower limit that allows one correctly recognized data to be recognized incorrectly
L ij (2) is given by equation (17) as the second minimum value in L ij (x). Generally, the lower limit is given by equation (18).

【0054】[0054]

【数16】 (Equation 16)

【0055】[0055]

【数17】 [Equation 17]

【0056】[0056]

【数18】 (Equation 18)

【0057】同様に上限Uij(l)を求めることができる。
クラス0(≠i)に属するx(∈X)を選ぶ。クラスタopが最
小の調整された距離hop(x)を持つとすると、式(19)の
ようになる。調整された距離hij(x)はhop(x)より大きい
から、xが正しく認識される範囲でのαijの上限Uij(x)
は式(20)で与えられる。
Similarly, the upper limit U ij (l) can be obtained.
Select x (εX) belonging to class 0 (≠ i). If the cluster op has the minimum adjusted distance h op (x), then equation (19) holds. The adjusted distance h ij (x) is greater than h op (x), so the upper limit of α ij U ij (x) in the range where x is recognized correctly
Is given by equation (20).

【0058】[0058]

【数19】 [Equation 19]

【0059】[0059]

【数20】 (Equation 20)

【0060】図13を用いてこれを説明する。301、
302はクラスタof、ijのメンバーシップ関数でメンバ
ーシップ関数300はクラスoに属する入力xが正しく認識
される限界のメンバーシップ関数である。αijを変えて
も対応するメンバーシップ関数が300と302の間に
あるかぎりは入力xはクラスoに正しく認識される。
This will be described with reference to FIG. 301,
A membership function 302 is a membership function of the clusters of and ij. A membership function 300 is a membership function of a limit at which an input x belonging to a class o is correctly recognized. The input x is correctly recognized by the class o as long as the corresponding membership function is between 300 and 302 even if α ij is changed.

【0061】これより正しく認識されたデータを誤認識
しないαijの上限Uij(1)は式(21)で与えられる。こ
こでUij(x)は異なるx に対して異なると仮定する。これ
より式(21)は一つのxでのみ成立する。同様に正しく
認識されていた1つのデータの誤認識を許すαijの上限
Uij(2)はUij(x)の中の第2の最小値で式(22)で与え
られる。一般に、式(23)のようになる。これよりαij
は式(24)のように制約される。
From this, the upper limit U ij (1) of α ij that does not erroneously recognize correctly recognized data is given by equation (21). Here we assume that U ij (x) is different for different x. From this, equation (21) is valid only for one x. Similarly, the upper limit of α ij that allows misrecognition of one correctly recognized data
U ij (2) is the second minimum value in U ij (x) and is given by equation (22). Generally, it becomes as shown in Expression (23). From this α ij
Is constrained as in equation (24).

【0062】[0062]

【数21】 (Equation 21)

【0063】[0063]

【数22】 (Equation 22)

【0064】[0064]

【数23】 (Equation 23)

【0065】[0065]

【数24】 (Equation 24)

【0066】(a,b)を開区間を示すとする。もしαij
(Lij(1),Uij(1))の範囲の中で変化させると、正しく
認識されたデータx(∈X)は正しく認識されたままであ
る。また[a,b]を閉区間として[Uij(l−1),U
ij(l))あるいは(Lij(l),Lij(l−1)]の区間で変化さ
せると、l−1個の正しく認識されたデータx(∈X)に誤
認識を生じる。
Let (a, b) be an open section. If α ij
When changed within the range of (L ij (1), U ij (1)), the correctly recognized data x (εX) remains correctly recognized. In addition, [a ij ] is the closed interval and [U ij (l−1), U
ij (l)) or (L ij (l), L ij (l−1)] is varied, and misrecognition occurs in l−1 correctly recognized data x (εX).

【0067】αijの変更による認識率の向上 クラスiに間違ったデータx(∈Y)あるいはクラスiに属し
クラスo(≠i)に間違ったデータx(∈Y)について、αij
変えることにより正しく認識されるようになるか調べ
る。まずクラスiに属し、クラスo(≠i)に間違ったデー
タx(∈Y)について考える。このデータは式(25)が成立
すると、hik(x)(k≠i)の値にかかわらず正しく認識され
る。ここでVij(x)はαijの下限である。
[0067] For the improvement class i in the wrong data x of the recognition rate due to the change of α ij (∈Y) or class i to belong to the class o (≠ i) the wrong data x (∈Y), by changing the α ij Find out if it will be recognized correctly. First, consider the wrong data x (∈Y) that belongs to class i and belongs to class o (≠ i). If the equation (25) holds, this data is correctly recognized regardless of the value of h ik (x) (k ≠ i). Where V ij (x) is the lower limit of α ij .

【0068】[0068]

【数25】 (Equation 25)

【0069】図14を用いてこれを説明する。310、
311は各々クラスタij,ofのメンバーシップ関数で3
12、313はクラスiに属する入力xを正しく認識させ
るメンバーシップ関数の範囲を示している。 αijを増
やしてメンバーシップ関数310が312と313との
間に入るようになれば入力xは正しくクラスiに認識され
るようになる。
This will be described with reference to FIG. 310,
311 is the membership function of each cluster ij, of
Reference numerals 12 and 313 indicate the range of the membership function that correctly recognizes the input x belonging to the class i. If α ij is increased so that the membership function 310 falls between 312 and 313, the input x will be correctly recognized by the class i.

【0070】αijを区間(αij,Uij(l))の間の値に設定
したとき、Inc(l)を正しく認識される誤認識のデータの
数とする。もしVij(x)が区間(αij、Uij(l))に含まれて
いるときにInc(l)を1つカウントアップする。さらに、
式(26)のように定義する。αijをmαx(βij(l),U
ij(l−1))より大きく設定すると、l−1個のデータが
誤認識するが、誤認識していたInc(l) 個のデータが正
しく認識される。
When α ij is set to a value between the intervals (α ij , U ij (l)), Inc (l) is the number of erroneously recognized data that is correctly recognized. If V ij (x) is included in the section (α ij , U ij (l)), Inc (l) is incremented by one. further,
It is defined as in Expression (26). α ij to mαx (β ij (l), U
If it is set larger than ij (l-1)), l-1 data are erroneously recognized, but Inc (l) data that was erroneously recognized is correctly recognized.

【0071】[0071]

【数26】 (Equation 26)

【0072】同様にクラスoに属するデータxがクラスi
に誤認識されたとする。αijを減少することによりxが
正しく認識されるか調べる。そのためにはクラスoの最
小の調整された距離がn個のクラスの間で第2の最小値
である必要がある。すなわち式(27)のqはoである必要
がある。つぎにhij(x)はクラスiで最小で、クラスiの第
2の最小値は、式(28)のように、クラスoの調整され
た距離の最小値より大きい必要がある。このときデータ
は式(29)が成立すれば正しく認識される。ここでK
ij(x)はαijの上限である。
Similarly, data x belonging to class o is assigned to class i
Suppose it was misrecognized by. Check if x is correctly recognized by reducing α ij . To do so, the minimum adjusted distance of class o needs to be the second minimum among the n classes. That is, q in equation (27) needs to be o. Next, h ij (x) is the smallest in class i, and the second smallest value in class i must be larger than the smallest adjusted distance in class o, as in equation (28). At this time, the data is correctly recognized if the equation (29) is satisfied. Where K
ij (x) is the upper limit of α ij .

【0073】[0073]

【数27】 [Equation 27]

【0074】[0074]

【数28】 [Equation 28]

【0075】[0075]

【数29】 (Equation 29)

【0076】これを図15で説明する。320、32
1、322はクラスタij、of、ikのメンバーシップ関数
で、323および324は入力xをクラスoに正しく認識
させるためのメンバーシップ関数320の変更すべき範
囲を示す。メンバーシップ関数320が323と324
の範囲にはいるようにαijを調整することにより入力x
はクラスoに正しく認識されるようになる。
This will be described with reference to FIG. 320, 32
Reference numerals 1 and 322 denote membership functions of the clusters ij, of, and ik, and reference numerals 323 and 324 denote ranges of the membership function 320 for making the class x correctly recognize the input x. Membership function 320 is 323 and 324
Input x by adjusting α ij so that
Will be correctly recognized by class o.

【0077】Dec(l)をαijを区間(Lij(l)、αij)に設定
したときに誤認識のデータが正しく認識される数とす
る。このときKij(x)が区間(Lij(l)、αij)に含まれると
きにDec(l)を1つカウントアップする。
[0077] Dec (l) the alpha ij the section (L ij (l), α ij) data misrecognition when set to a number that is recognized correctly. In this case K ij (x) is the interval (L ij (l), α ij) is incremented by one Dec (l) when contained.

【0078】ここで、式(30)のように定義する。もし
αijをmin(γij(l),Lij(l−1))より小さく設定すると
l−1個の正しく認識されていたデータに誤認識が起こ
るがDec(l)個のデータが正しく認識されることになる。
Here, it is defined as in the equation (30). If α ij is set smaller than min (γ ij (l), L ij (l-1)),
Although erroneous recognition occurs in l-1 correctly recognized data, Dec (l) data is correctly recognized.

【0079】[0079]

【数30】 [Equation 30]

【0080】αijの変更 Inc(l)(l=1,・・・,lM)に対して式(31)を満たすlを求め
る。ただしlMは正の整数である。同様にDec(l)(l=1,・・
・,lM)に対して式(32)を満たすlを求める。
Change α ij For l Inc (l) (l = 1, ..., 1M), l that satisfies the equation (31) is obtained. However, lM is a positive integer. Similarly, Dec (l) (l = 1, ...
, LM) is calculated to satisfy l (32).

【0081】[0081]

【数31】 [Equation 31]

【0082】[0082]

【数32】 (Equation 32)

【0083】式(31)あるいは式(32)を満たす複数の
l があるときは最小のlをとる。最初に式(31)が式
(32)より大きいか等しい場合を考える。もしαijを区
間(αij,Uij(l))においてβij(l)より大きくすると、
正しく認識されるデータの増加数はInc(l)−l+1個とな
る。そこでαijを区間[βij(l),Uij(l))で式(33)の
ように設定する。ここでδは0≦δ<1を満たす。
When there are a plurality of l's satisfying the equation (31) or the equation (32), the smallest l is taken. First, equation (31) is
(32) Consider the case of greater than or equal to. If α ij is larger than β ij (l) in the interval (α ij , U ij (l)),
The increase in the number of correctly recognized data is Inc (l) -l + 1. Therefore, α ij is set as in equation (33) in the interval [β ij (l), U ij (l)). Here, δ satisfies 0 ≦ δ <1.

【0084】[0084]

【数33】 [Expression 33]

【0085】同様に式(31)が式(32)より小さいとき
は、αijを(Lij(l), γij (l))の範囲でγij(l)より小
さく式(34)のように修正する。
[0085] Similarly when the formula (31) is smaller than the formula (32), the alpha ij of (L ij (l), γ ij (l)) γ ij in the range of (l) smaller than the formula (34) To fix.

【0086】[0086]

【数34】 (Equation 34)

【0087】調整の方法 以上の議論よりファジィルールの調整は図16のように
すればよい。すなわち、 (ステップ400) パラメー
タlMに適当な正の整数を設定する。このときlM−1はα
ijを調整するときに許容する最大の誤認識の数である。
また式(33)および式(34)のδに[0,1)の区間の値を
設定し、αijに同一の正の初期値を設定する。 (ステップ410) αij(i=1,・・・,n,j=1,・・・)に対し
て、Lij(l)、Uij(l)、Inc(l)、Dec(l)、bij(l)、および
γij(l)(l=1,・・・,lM)を計算する。式(31)あるいは式
(32)を最大にするlを求め、式(33)あるいは式(3
4)によりαijを変更する。 (ステップ420) ステップ410を認識率が改善さ
れないときは終了し、そうでないときはステップ410
に戻る。
Adjustment Method From the above discussion, the fuzzy rule may be adjusted as shown in FIG. That is, (step 400) an appropriate positive integer is set in the parameter 1M. At this time, lM-1 is α
It is the maximum number of misrecognitions to allow when adjusting ij .
Further, δ in the equations (33) and (34) is set to a value in the interval of [0, 1), and α ij is set to the same positive initial value. (Step 410) For α ij (i = 1, ..., n, j = 1, ...), L ij (l), U ij (l), Inc (l), Dec (l) , B ij (l), and γ ij (l) (l = 1, ..., 1M). Formula (31) or formula
Finding l that maximizes (32), equation (33) or equation (3
Change α ij according to 4). (Step 420) Step 410 is ended when the recognition rate is not improved, otherwise step 410
Return to

【0088】上記ファジィ推論を用いた例として車番を
認識するパターン認識システムを図17に示す。同図に
おいて801はプレート切り出し手段、802は文字切
り出し手段、803は特徴抽出手段である。なお各手段
の詳細は、既に出願済みの特許に開示されている。即ち
車両を検知して、プレートを切り出す手段に関しては、
特開昭60−241387(画像処理装置)、特開昭61−141087
(画像処理方法および装置)、特開昭63−36383(画像処理
装置)、文字切り出しに関しては特開昭63−153682(濃淡
画像の処理方法および装置)、特徴抽出に関しては特開
昭62−293492(文字特徴抽出方法)に詳細に記述されてい
る 走行している車の画像は、工業用テレビで画像認識装置
に取り込まれる。画像認識装置では、ナンバープレート
の切り出しを行ない、その中から文字を1つづつ切り出
し、文字の特徴量を抽出する。数字の認識のときは、特
徴量として例えば、穴の数、曲がり具合等を用いる。特
徴量はファジィルール推論手段102に入力され、0から
9までの数字に対する成立度が式(2)〜(4)を用いて計
算され、成立度のもっとも高いものに対応する数字であ
ると判定されてその識別結果が出力される。なおファジ
ィルールの抽出および調整は、あらかじめファジィルー
ル構築手段101で行なっておく。すなわち、データー
分割手段104で教師データをクラスタに分割し、ルー
ル抽出手段105で式(1)のファジィルールを抽出し、ル
ール調整手段106で図16の手順でファジィルールの
調整を行う。
FIG. 17 shows a pattern recognition system for recognizing a vehicle number as an example using the above fuzzy inference. In the figure, 801 is a plate cutting means, 802 is a character cutting means, and 803 is a feature extracting means. The details of each means are disclosed in the patents already filed. That is, regarding the means for detecting the vehicle and cutting out the plate,
JP-A-60-241387 (image processing device), JP-A-61-141087
(Image processing method and apparatus), JP-A-63-36383 (image processing apparatus), JP-A-63-153682 (character processing method and apparatus) for character extraction, and JP-A-62-293492 for feature extraction. The image of a running car, which is described in detail in (Character feature extraction method), is captured by an image recognition device on an industrial television. The image recognition device cuts out a license plate, cuts out characters one by one, and extracts the feature amount of the character. When recognizing numbers, the number of holes, the degree of bending, etc. are used as the feature amount. The feature amount is input to the fuzzy rule inference means 102, the degree of success for the numbers 0 to 9 is calculated using the equations (2) to (4), and it is determined that the number corresponds to the highest degree of success. Then, the identification result is output. The extraction and adjustment of the fuzzy rules are performed by the fuzzy rule construction means 101 in advance. That is, the data dividing unit 104 divides the teacher data into clusters, the rule extracting unit 105 extracts the fuzzy rule of the formula (1), and the rule adjusting unit 106 adjusts the fuzzy rule according to the procedure of FIG.

【0089】本方式の評価を行なうため0から9までの
数字に対する教師データを810個、テストデータを8
20個用意し、上述のようにファジィルールを決めた。
このとき各数字の教師データは81個である。lM=10
とし、分割の上限Ncを70としたときにテストデータの
認識率は99.63%でファジィルールの調整まで60M
IPSの計算機でCPU時間は2.6秒であった。
In order to evaluate this method, 810 pieces of teaching data for numbers 0 to 9 and 8 pieces of test data are used.
20 pieces were prepared and the fuzzy rule was decided as mentioned above.
At this time, the number of teacher data for each number is 81. lM = 10
When the upper limit Nc of the division is 70, the recognition rate of the test data is 99.63% and the adjustment of the fuzzy rule is 60M.
CPU time was 2.6 seconds on the IPS computer.

【0090】これをニューラルネットと比較すると、ニ
ューラルネットで初期値を変えて、100回学習させた
ときの最大の認識率が99.76%で、最小は98.90
%、平均は99.41%であった。また学習時間は同一
の計算機で1回あたり78.9秒であった。
Comparing this with a neural network, the maximum recognition rate is 99.76% and the minimum is 98.90 when learning is performed 100 times by changing the initial value in the neural network.
%, And the average was 99.41%. Moreover, the learning time was 78.9 seconds per time with the same computer.

【0091】したがって本発明の方式で、ニューラルネ
ットの最大性能付近の性能を30分の1の計算時間で実
現できたことになる。なお数字ばかりでなく、漢字、平
仮名も同様に認識できる。このとき、特徴量でなく切り
出した文字画像を例えば8×7等に分割して入力として
もよい。
Therefore, with the method of the present invention, the performance near the maximum performance of the neural network can be realized in 1/30 of the calculation time. Not only numbers, but also kanji and hiragana can be recognized. At this time, the character image cut out instead of the feature amount may be divided into 8 × 7 or the like and input.

【0092】図18に本発明のファジィ推論方式を白血
球を分類するパターン認識システム(血球分類装置)に
適用した場合を示す。白血球は成長の段階にしたがい分
類され、各々5〜7種類の成熟球、未成熟球に分類さ
れ、合計で12種類程度の血球の種類に分類される。成
長段階により種類が決められているため、隣接した種類
の境界があいまいで非常に分類が難しい問題として知ら
れている。
FIG. 18 shows a case where the fuzzy inference method of the present invention is applied to a pattern recognition system (blood cell classification device) for classifying white blood cells. White blood cells are classified according to the growth stage, and are classified into 5 to 7 types of mature cells and immature cells, respectively, and are classified into about 12 types of blood cells in total. Since the type is determined according to the growth stage, it is known that the boundary between adjacent types is ambiguous and it is very difficult to classify.

【0093】同図において901は血球切り出し手段、
902は特徴抽出手段である。光学的にスクリーニング
された血球データは血球分類装置に取り込まれる。血球
分類装置では、血球の切り出しを行ない、細胞核の周囲
長、面積等の血球の特徴量を抽出する。特徴量はファジ
ィルール推論手段102に入力され、12種類程度の種
類の成立度が式(2)〜(4)を用いて計算され、成立度の
もっとも高いものに対応する分類に属すると判定されて
その識別結果が出力される。なおファジィルールの抽出
および調整は、あらかじめファジィルール構築手段10
1で行なっておく。すなわち、データー分割手段104
で教師データをクラスタに分割し、ルール抽出手段10
5で式(1)のファジィルールを抽出し、ルール調整手段
106で図16の手順でファジィルールの調整を行う。
In the figure, 901 is a blood cell cutting means,
902 is a feature extraction means. The optically screened blood cell data is loaded into a blood cell classifier. The blood cell classifying device cuts out blood cells and extracts the characteristic amount of the blood cells such as the perimeter and area of the cell nucleus. The feature amount is input to the fuzzy rule inference means 102, the degree of success of about 12 types is calculated by using the equations (2) to (4), and it is determined that the feature degree belongs to the category corresponding to the highest degree of success. The identification result is output. The fuzzy rules are extracted and adjusted in advance by the fuzzy rule construction means 10
Do in 1. That is, the data dividing means 104
The teacher data is divided into clusters by the rule extraction means 10
In step 5, the fuzzy rule of the formula (1) is extracted, and the rule adjusting means 106 adjusts the fuzzy rule in the procedure shown in FIG.

【0094】本方式の評価を行なうため教師データを3
097個、テストデータを3100個用意し、上述のよ
うにファジィルールを決めた。lM=10とし、分割の上
限Ncを80としたときにテストデータの認識率は91.
58%でファジィルールの調整まで60MIPSの計算機で
CPU時間は41.6秒であった。
The teacher data is set to 3 in order to evaluate this method.
097 pieces and 3100 pieces of test data were prepared, and the fuzzy rule was determined as described above. When lM = 10 and the upper limit Nc of division is 80, the recognition rate of the test data is 91.
58% adjustment of fuzzy rules with 60 MIPS calculator
CPU time was 41.6 seconds.

【0095】これをニューラルネットと比較すると、ニ
ューラルネットで初期値を変えて、25回学習させたと
きの最大の認識率が90.46%で、平均は87.44%
であったまた学習時間は同一の計算機で1回あたり13
3分であった。したがって本発明の方式で、ニューラル
ネットの最大性能を凌ぐ性能を190分の1の計算時間
で実現できたことになる。
Comparing this with a neural network, the maximum recognition rate when the initial value was changed in the neural network and learning was performed 25 times was 90.46%, and the average was 87.44%.
Also, the learning time was 13 per session with the same computer.
3 minutes. Therefore, with the method of the present invention, it is possible to realize the performance exceeding the maximum performance of the neural network in a calculation time of 1/190.

【0096】[0096]

【発明の効果】以上説明した本発明の実施例の効果を説
明する。
The effects of the embodiments of the present invention described above will be described.

【0097】(イ)各クラスの入力データを分割する 各クラスの入力データを分割することにより、各クラス
の領域の近似を教師データにより近づけることができ
る。
(A) Dividing the input data of each class By dividing the input data of each class, the approximation of the area of each class can be made closer to the teacher data.

【0098】(ロ)分割されたデータにより領域を近似
してファジィルールを抽出する 分割されたデータを用いて領域を近似し、これをファジ
ィルールとすることによりルール抽出を容易に行うこと
ができる。
(B) Approximating a region with divided data to extract a fuzzy rule Approximating a region with divided data and using this as a fuzzy rule allows easy rule extraction. .

【0099】(ハ)教師データを用いて近似領域を調整
することによりファジィルールをチューニングする 教師データに対するパターン認識結果が向上するように
近似された領域を調整することにより、ファジィルール
間の競合関係が調整され、教師データに対する認識率の
向上とともに汎化能力も向上することができる。
(C) Tuning the fuzzy rule by adjusting the approximation area using the teacher data By adjusting the approximate area so that the pattern recognition result for the teacher data is improved, the competitive relation between the fuzzy rules is adjusted. Can be adjusted, and the generalization ability can be improved as well as the recognition rate for teacher data.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係るパターン認識装置の一実施例の構
成を示すブロック図である。
FIG. 1 is a block diagram showing a configuration of an embodiment of a pattern recognition device according to the present invention.

【図2】図1に示すパターン認識装置のハード構成を示
すブロック図である。
FIG. 2 is a block diagram showing a hardware configuration of the pattern recognition device shown in FIG.

【図3】図1に示すパターン認識装置における入出力デ
ータファイルの構成を示す説明図である。
FIG. 3 is an explanatory diagram showing a configuration of an input / output data file in the pattern recognition device shown in FIG.

【図4】図1に示すパターン認識装置における分割デー
タファイルの構成を示す説明図である。
4 is an explanatory diagram showing a configuration of a divided data file in the pattern recognition device shown in FIG.

【図5】図1に示すパターン認識装置におけるファジィ
ルールファイルの構成を示す説明図である。
5 is an explanatory diagram showing a configuration of a fuzzy rule file in the pattern recognition device shown in FIG.

【図6】ファジィシステムの構成を示す説明図である。FIG. 6 is an explanatory diagram showing a configuration of a fuzzy system.

【図7】データの分割の仕方を示す説明図である。FIG. 7 is an explanatory diagram showing how to divide data.

【図8】入力データの存在領域を楕円近似する際にその
楕円の中心と半径の修正を行なう状態を示す説明図であ
る。
FIG. 8 is an explanatory diagram showing a state in which the center and radius of an ellipse are corrected when an existing region of input data is approximated to an ellipse.

【図9】ファジィルールの調整の具体的手法の一例を示
す説明図である。
FIG. 9 is an explanatory diagram showing an example of a specific method for adjusting a fuzzy rule.

【図10】ファジィルールの調整の具体的手法の他の例
を示す説明図である。
FIG. 10 is an explanatory diagram showing another example of a specific method of adjusting a fuzzy rule.

【図11】ファジィルール調整のためのパラメータ調整
の下限を示す説明図である。
FIG. 11 is an explanatory diagram showing a lower limit of parameter adjustment for fuzzy rule adjustment.

【図12】ファジィルール調整のためのパラメータ調整
の下限を示す説明図である。
FIG. 12 is an explanatory diagram showing a lower limit of parameter adjustment for fuzzy rule adjustment.

【図13】ファジィルール調整のためのパラメータ調整
の上限を示す説明図である。
FIG. 13 is an explanatory diagram showing an upper limit of parameter adjustment for fuzzy rule adjustment.

【図14】ファジィルール調整により誤認識が解消され
る状態を示す説明図である。
FIG. 14 is an explanatory diagram showing a state where erroneous recognition is eliminated by fuzzy rule adjustment.

【図15】ファジィルール調整により誤認識が解消され
る状態を示す説明図である。
FIG. 15 is an explanatory diagram showing a state in which erroneous recognition is eliminated by fuzzy rule adjustment.

【図16】ファジィルールの調整を行なうためのパラメ
ータの調整手順を示す説明図である。
FIG. 16 is an explanatory diagram showing a procedure for adjusting parameters for adjusting a fuzzy rule.

【図17】本発明が適用される車番を認識するパターン
認識システムの構成を示すブロック図である。
FIG. 17 is a block diagram showing a configuration of a pattern recognition system for recognizing a vehicle number to which the present invention is applied.

【図18】本発明が適用される血球を分類するパターン
認識システムの構成を示すブロック図である。
FIG. 18 is a block diagram showing the configuration of a pattern recognition system for classifying blood cells to which the present invention is applied.

【符号の説明】[Explanation of symbols]

10 CPU 20 メモリ 30 キーボード 40 CRT 101 ファジィルール構築手段 102 ファジィルール推論手段 103 記憶手段 104 データ分割手段 105 ルール抽出手段 106 ルール調整手段 107 入出力データファイル 108 分割データファイル 109 ファジィルールファイル 801 プレート切り出し手段 802 文字切り出し手段 803 特徴抽出手段 901 血球切り出し手段 902 特徴抽出手段 10 CPU 20 Memory 30 Keyboard 40 CRT 101 Fuzzy Rule Constructing Means 102 Fuzzy Rule Inferring Means 103 Storage Means 104 Data Dividing Means 105 Rule Extracting Means 106 Rule Adjusting Means 107 Input / Output Data Files 108 Dividing Data Files 109 Fuzzy Rule Files 801 Plate Cutting Means 802 Character cutting means 803 Feature extracting means 901 Blood cell cutting means 902 Feature extracting means

Claims (18)

【特許請求の範囲】[Claims] 【請求項1】 入力データとその入力データがどのクラ
スに属するかの出力データを教師データとし、いくつか
の教師データの入出力関係を用いてパターン認識のため
のファジィルールを生成するファジィルール生成手段を
有するパターン認識装置において、 前記ファジィルール生成手段は、データをクラスタに分
割するデータ分割手段と、ファジィルールを抽出するル
ール抽出手段と、ファジィルールを調整するルール調整
手段とを有し、前記データ分割手段により同一クラスに
属するデータを1つ以上のクラスタに分割し、前記ルー
ル抽出手段を用いて、分割されたクラスタに属する入力
データの存在領域を楕円領域で近似することによりクラ
スタに対応するファジィルールを抽出し、前記ルール調
整手段により教師データが属するクラスに属する程度が
大きくなるようにファジィルールの存在領域を調整する
ことを特徴とするパターン認識装置。
1. Fuzzy rule generation for generating fuzzy rules for pattern recognition by using input data and output data indicating which class the input data belongs to as teacher data and using input / output relationships of some teacher data. In the pattern recognition device having means, the fuzzy rule generating means has a data dividing means for dividing data into clusters, a rule extracting means for extracting fuzzy rules, and a rule adjusting means for adjusting the fuzzy rules, The data dividing means divides the data belonging to the same class into one or more clusters, and the rule extracting means is used to approximate the existing area of the input data belonging to the divided clusters with an elliptic area to correspond to the clusters. Extract the fuzzy rules, and use the rule adjustment means Pattern recognition apparatus characterized by adjusting the existing area of the fuzzy rules to the extent that belong becomes large.
【請求項2】 前記データ分割手段は、各クラスタに対
応する入力データの軸毎の平均値を求める手段と、平均
値より大きい教師データあるいは平均値より小さい教師
データの数を求める手段とを有し、平均値より大きい教
師データ数と平均値より小さい教師データ数との差の絶
対値が最も少ない軸でクラスタを分割することを特徴と
する請求項1に記載のパターン認識装置。
2. The data dividing means has means for obtaining an average value for each axis of input data corresponding to each cluster, and means for obtaining the number of teacher data larger than the average value or less than the average value. The pattern recognition apparatus according to claim 1, wherein the cluster is divided along the axis having the smallest absolute value of the difference between the number of teacher data larger than the average value and the number of teacher data smaller than the average value.
【請求項3】 前記ルール抽出手段は、クラスタに属す
る教師データの各軸の平均値の正の側の変位の平均値お
よび負の側の変位の平均値を求める手段と、楕円の中心
からの半径を求める手段とを有し、各々の変位の平均値
の違いにより片寄りのない位置に中心を決めることを特
徴とする請求項1に記載のパターン認識装置。
3. The rule extracting means obtains an average value of displacement on the positive side and an average value of displacement on the negative side of the average value of each axis of the teacher data belonging to the cluster, 2. The pattern recognition apparatus according to claim 1, further comprising means for obtaining a radius, wherein the center is determined at a position without deviation based on a difference in average value of displacements.
【請求項4】 前記ルール調整手段は、正しく分離され
たデータのうちのl−1(lは正の整数)個のデータが誤
認識するときの楕円領域の傾きの上限および下限を求め
る手段と、誤認識したデータを正しく認識するための楕
円領域の傾きを計算する手段とを有し、最も認識率が改
善されるように1つの楕円領域の傾きを増加あるいは減
少することを特徴とする請求項1に記載のパターン認識
装置。
4. The rule adjusting means is means for obtaining an upper limit and a lower limit of a slope of an elliptic region when l−1 (l is a positive integer) pieces of correctly separated data are erroneously recognized. And a means for calculating the inclination of the elliptical area for correctly recognizing the erroneously recognized data, and increasing or decreasing the inclination of one elliptic area so that the recognition rate is most improved. Item 1. The pattern recognition device according to item 1.
【請求項5】 入力データとその入力データがどのクラ
スに属するかの出力データを教師データとし、いくつか
の教師データの入出力関係を用いてパターン認識のため
のファジィルールを生成するファジィルール生成手段を
有するパターン認識装置において、 前記ファジィルール生成手段は、データをクラスタに分
割するデータ分割手段と、ファジィルールを抽出するル
ール抽出手段と、ファジィルールを調整するルール調整
手段とを有し、前記データ分割手段により同一クラスに
属するデータを1つ以上のクラスタに分割し、前記ルー
ル抽出手段を用いて、分割されたクラスタに属する入力
データの存在領域を楕円領域で近似することによりクラ
スタに対応するファジィルールを抽出し、前記ルール調
整手段により正しく分離されたデータのうちのl−1(lは
正の整数)個のデータが誤認識するときの楕円領域の傾
きの上限および下限を求め、誤認識したデータを正しく
認識するための楕円領域の傾きを計算し、最も認識率が
改善するように1つの楕円領域の傾きを増加あるいは減
少することを特徴とするパターン認識装置。
5. A fuzzy rule generation for generating fuzzy rules for pattern recognition by using input data and output data indicating which class the input data belongs to as teacher data, and using input / output relationships of some teacher data. In the pattern recognition device having means, the fuzzy rule generating means has a data dividing means for dividing data into clusters, a rule extracting means for extracting fuzzy rules, and a rule adjusting means for adjusting the fuzzy rules, The data dividing unit divides the data belonging to the same class into one or more clusters, and the rule extracting unit is used to approximate the existing region of the input data belonging to the divided clusters with an elliptic region to correspond to the clusters. Extract the fuzzy rules, and extract the data correctly separated by the rule adjusting means. Then, the upper and lower limits of the slope of the elliptic region when l−1 (l is a positive integer) data are erroneously recognized are calculated, and the slope of the elliptic region for correctly recognizing the misrecognized data is calculated. A pattern recognition device characterized by increasing or decreasing the inclination of one elliptical region so as to improve the recognition rate.
【請求項6】 クラスタ中心のまわりの楕円領域でファ
ジィルールの条件部のメンバーシップ関数が定義された
ファジィルールを用いてパターン認識する装置におい
て、 入力データに対する各ファジィルールの条件部の成立度
を計算する手段を有し、該成立度計算手段の計算結果に
基づいて成立度の最も高いファジィルールが属するクラ
スに入力が属すると判定することを特徴とするパターン
認識装置。
6. A device for recognizing a pattern using a fuzzy rule in which a membership function of the condition part of the fuzzy rule is defined in an elliptic region around the center of the cluster, and the degree of satisfaction of the condition part of each fuzzy rule with respect to input data is determined. A pattern recognition apparatus having a calculating means, and determining that an input belongs to a class to which a fuzzy rule having the highest satisfaction degree belongs, based on a calculation result of the satisfaction degree calculating means.
【請求項7】 ファジィルールの条件部が代表点とその
代表点からの距離の重みで定義されたファジィルールを
用いてパターン認識する装置において、 入力データと代表点との重み付き距離を計算する手段を
設け、入力の各々のファジィルールの代表点への重み付
き距離を計算して、重み付き距離の最も近いファジィル
ールが属するクラスに入力が属すると判定することを特
徴とするパターン認識装置。
7. A device for pattern recognition using a fuzzy rule defined by a conditional point of a fuzzy rule and a weight of a distance from the representative point, and calculating a weighted distance between the input data and the representative point. A pattern recognition apparatus comprising means for calculating a weighted distance to a representative point of each fuzzy rule of an input, and determining that the input belongs to a class to which the fuzzy rule having the closest weighted distance belongs.
【請求項8】 入力データとその入力データがどのクラ
スに属するかの出力データを教師データとし、いくつか
の教師データの入出力関係を用いてパターン認識のため
のファジィルールを生成する方法であって、データをク
ラスタに分割するステップと、ファジィルールを抽出す
るステップと、ファジィルールを調整するステップとか
らなり、クラスタに分割するステップにおいて同一クラ
スに属するデータを1つ以上のクラスタに分割し、ファ
ジィルールを抽出するステップにおいて、分割されたク
ラスタに属する入力データの存在領域を楕円領域で近似
することによりクラスタに対応するファジィルールを抽
出し、ファジィルールを調整するステップにおいて教師
データが属するクラスに属する程度が大きくなるように
ファジィルールの存在領域を調整することを特徴とする
パターン認識用のファジィルール生成方法。
8. A method for generating fuzzy rules for pattern recognition by using input data and output data indicating which class the input data belongs to as teacher data, and using input / output relationships of some teacher data. , The step of dividing the data into clusters, the step of extracting the fuzzy rules, and the step of adjusting the fuzzy rules.In the step of dividing the clusters, the data belonging to the same class is divided into one or more clusters, In the step of extracting the fuzzy rule, the fuzzy rule corresponding to the cluster is extracted by approximating the existence area of the input data belonging to the divided cluster with the elliptic area, and the fuzzy rule corresponding to the class to which the teacher data belongs in the step of adjusting the fuzzy rule. Existence of fuzzy rules to increase the degree of belonging Fuzzy rule generation method for pattern recognition and adjusts the area.
【請求項9】 前記クラスタを分割するステップにおい
て各クラスタに対応する入力データの軸毎の平均値を求
め、ついで平均値より大きい教師データあるいは平均値
より小さい教師データの数を求め、平均値より大きい教
師データ数と平均値より小さい教師データ数との差の絶
対値が最も少ない軸でクラスタを分割することを特徴と
する請求項8に記載のパターン認識用のファジィルール
生成方法。
9. In the step of dividing the cluster, an average value of input data corresponding to each cluster for each axis is obtained, and then the number of teacher data larger than the average value or less than the average value is obtained. 9. The fuzzy rule generation method for pattern recognition according to claim 8, wherein the cluster is divided along the axis having the smallest absolute value of the difference between the large number of teacher data and the smaller number of teacher data.
【請求項10】 前記ファジィルールを抽出するステッ
プにおいて、クラスタに属する教師データの各軸の平均
値の正の側の変位の平均値および負の側の平均値を求
め、各々の変位の平均値の違いに基づいて片寄りのない
位置に中心を決めることを特徴とする請求項8に記載の
パターン認識用のファジィルール生成方法。
10. In the step of extracting the fuzzy rule, an average value of displacements on the positive side and an average value of negative sides of the average value of each axis of the teacher data belonging to the cluster are calculated, and the average value of each displacement 9. The fuzzy rule generation method for pattern recognition according to claim 8, wherein the center is determined at a position having no deviation based on the difference between the two.
【請求項11】 前記ファジィルールを調整するステッ
プにおいて、正しく分離されたデータのうちのl−1(lは
正の整数)個のデータが誤認識するときの楕円領域の傾
きの上限および下限を求め、ついで誤認識したデータを
正しく認識するための楕円領域の傾きを計算し、最も認
識率が改善するように1つの楕円領域の傾きを増加ある
いは減少することを特徴とする請求項8に記載のパター
ン認識用のファジィルール生成方法。
11. In the step of adjusting the fuzzy rule, an upper limit and a lower limit of an inclination of an elliptic region when l−1 (l is a positive integer) of correctly separated data are erroneously recognized. 9. The method according to claim 8, wherein the slope of the elliptic region for obtaining the correct recognition of the erroneously recognized data is calculated, and the slope of one elliptic region is increased or decreased so as to improve the recognition rate most. Fuzzy Rule Generation Method for Pattern Recognition of Words.
【請求項12】 入力データとその入力データがどのク
ラスに属するかの出力データを教師データとし、いくつ
かの教師データの入出力関係を用いてパターン認識のた
めのファジィルールを生成する方法であって、データを
クラスタに分割するステップと、ファジィルールを抽出
するステップと、ファジィルールを調整するステップと
からなり、クラスタに分割するステップでは同一クラス
に属するデータを1つ以上のクラスタに分割し、ファジ
ィルールを抽出するステップでは、分割されたクラスタ
に属する入力データの存在領域を楕円領域で近似するこ
とによりクラスタに対応するファジィルールを抽出し、
ファジィルールを調整するステップでは正しく分離され
たデータのうちのl−1(lは正の整数)個のデータが誤認
識するときの楕円領域の傾きの上限および下限を求め、
誤認識したデータを正しく認識するための楕円領域の傾
きを計算し、最も認識率が改善するように1つの楕円領
域の傾きを増加あるいは減少することを特徴とするパタ
ーン認識用のファジィルール生成方法。
12. A method for generating fuzzy rules for pattern recognition by using input data and output data indicating which class the input data belongs to as teacher data, and using input / output relationships of some teacher data. , The step of dividing the data into clusters, the step of extracting the fuzzy rules, and the step of adjusting the fuzzy rules, the step of dividing into clusters divides the data belonging to the same class into one or more clusters, In the step of extracting the fuzzy rule, the fuzzy rule corresponding to the cluster is extracted by approximating the existence area of the input data belonging to the divided cluster with an elliptic area,
In the step of adjusting the fuzzy rule, the upper and lower limits of the slope of the elliptic region when l−1 (l is a positive integer) of correctly separated data are erroneously recognized,
A fuzzy rule generation method for pattern recognition characterized by calculating the slope of an elliptical region for correctly recognizing misrecognized data and increasing or decreasing the slope of one elliptic region so as to improve the recognition rate most. .
【請求項13】 クラスタ中心のまわりの楕円領域でフ
ァジィルールの条件部のメンバーシップ関数が定義され
たファジィルールを用いてパターン認識する方法であっ
て、入力データに対する各ファジィルールの条件部の成
立度を計算し、成立度の最も高いファジィルールが属す
るクラスに入力が属すると判定することを特徴とするパ
ターン認識方法。
13. A method for pattern recognition using a fuzzy rule in which a membership function of the conditional part of the fuzzy rule is defined in an elliptical region around the center of the cluster, wherein the conditional part of each fuzzy rule is satisfied for input data. A pattern recognition method characterized by calculating a degree and determining that an input belongs to a class to which a fuzzy rule having the highest success rate belongs.
【請求項14】 ファジィルールの条件部が代表点とそ
の代表点からの距離の重みで定義されたファジィルール
を用いてパターン認識する方法であって、入力の各々の
ファジィルールの代表点への重み付き距離を計算して、
重み付き距離の最も近いファジィルールが属するクラス
に入力が属すると判定することを特徴とするパターン認
識方法。
14. A method for recognizing a pattern using a fuzzy rule defined by a representative point and a weight of a distance from the representative point in a conditional part of the fuzzy rule, wherein Calculate the weighted distance,
A pattern recognition method characterized by determining that an input belongs to a class to which a fuzzy rule having the closest weighted distance belongs.
【請求項15】 入力データとその入力データがどのク
ラスに属するかの出力データを教師データとし、いくつ
かの教師データの入出力関係を用いて車両のナンバープ
レートを認識するファジィルールを生成するファジィル
ール生成手段を有するパターン認識装置において、 前記ファジィルール生成手段は、データをクラスタに分
割するデータ分割手段、と、ファジィルールを抽出する
ルール抽出手段と、ファジィルールを調整するルール調
整手段とを有し、データ分割手段により同一クラスに属
するデータを1つ以上のクラスタに分割し、前記ルール
抽出手段を用いて、分割されたクラスタに属する入力デ
ータの存在領域を楕円領域で近似することによりクラス
タに対応するファジィルールを抽出し、前記ルール調整
手段により教師データが属するクラスに属する程度が大
きくなるようにファジィルールの存在領域を調整するこ
とを特徴とするパターン認識装置。
15. A fuzzy rule for generating a fuzzy rule for recognizing a license plate of a vehicle by using input data and output data indicating which class the input data belongs to as teacher data and using input / output relations of some teacher data. In the pattern recognition device having rule generating means, the fuzzy rule generating means has a data dividing means for dividing data into clusters, a rule extracting means for extracting fuzzy rules, and a rule adjusting means for adjusting fuzzy rules. Then, the data dividing means divides the data belonging to the same class into one or more clusters, and the rule extracting means is used to approximate the existing areas of the input data belonging to the divided clusters with elliptic areas to form clusters. The corresponding fuzzy rule is extracted, and the teacher data is Pattern recognition apparatus characterized by a degree of belonging to a class to adjust the existing area of fuzzy rules so as to increase.
【請求項16】 ファジィルールの条件部が代表点とそ
の代表点からの距離の重みで定義されたファジィルール
を用いてナンバープレートを認識するパターン認識装置
において、 入力データと代表点との重み付き距離を計算する手段を
有し、該重み付き距離計算手段により入力の各々のファ
ジィルールの代表点への重み付き距離を計算して、重み
付き距離の最も近いファジィルールが属するクラスに入
力が属すると判定することを特徴とするパターン認識装
置。
16. A pattern recognition device for recognizing a license plate using a fuzzy rule defined by a condition point of a fuzzy rule defined by a weight of a representative point and a distance from the representative point, with weighting of input data and a representative point. The weighted distance calculation means calculates a weighted distance to a representative point of each fuzzy rule of the input, and the input belongs to a class to which the fuzzy rule having the closest weighted distance belongs. A pattern recognition device, characterized in that
【請求項17】 入力データとその入力データが属する
クラスを出力データを教師データとし、いくつかの教師
データの入出力関係を用いて血球を分類するファジィル
ールを生成するファジィルール生成手段を有するパター
ン認識装置において、 前記ファジィルール生成手段は、データをクラスタに分
割するデータ分割手段と、ファジィルールを抽出するル
ール抽出手段と、ファジィルールを調整するルール調整
手段とを有し、前記データ分割手段により同一クラスに
属するデータを1つ以上のクラスタに分割し、前記ルー
ル抽出手段を用いて、分割されたクラスタに属する入力
データの存在領域を楕円領域で近似することによりクラ
スタに対応するファジィルールを抽出し、前記ルール調
整手段により教師データが属するクラスに属する程度が
大きくなるようにファジィルールの存在領域を調整する
ことを特徴とするパターン認識装置。
17. A pattern having fuzzy rule generating means for generating fuzzy rules for classifying blood cells by using input data and a class to which the input data belongs as output data and output data as teacher data. In the recognition device, the fuzzy rule generating means has a data dividing means for dividing the data into clusters, a rule extracting means for extracting the fuzzy rules, and a rule adjusting means for adjusting the fuzzy rules. The data belonging to the same class is divided into one or more clusters, and the rule extraction means is used to extract the fuzzy rule corresponding to the clusters by approximating the existence region of the input data belonging to the divided clusters with an elliptical region. The degree to which the teacher data belongs to the class to which the teacher data belongs by the rule adjusting means. Pattern recognition apparatus characterized by adjusting the existing area of fuzzy rules so as to increase.
【請求項18】 ファジィルールの条件部が代表点とそ
の代表点からの距離の重みで定義されたファジィルール
を用いて血球を分類するパターン認識装置において、 入力データと代表点との重み付き距離を計算する手段を
有し、該重み付き距離計算手段により入力の各々のファ
ジィルールの代表点への重み付き距離を計算して、重み
付き距離の最も近いファジィルールが属するクラスに入
力が属すると判定することを特徴とするパターン認識装
置。
18. A weighted distance between input data and a representative point in a pattern recognition device for classifying blood cells using a fuzzy rule defined by a condition part of a fuzzy rule defined by a representative point and a weight of the distance from the representative point. If the input belongs to a class to which the fuzzy rule having the closest weighted distance belongs, the weighted distance to the representative point of each fuzzy rule of the input is calculated by the weighted distance calculating means. A pattern recognition device characterized by making a judgment.
JP7231433A 1995-09-08 1995-09-08 Pattern recognition method and apparatus Pending JPH0981536A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7231433A JPH0981536A (en) 1995-09-08 1995-09-08 Pattern recognition method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7231433A JPH0981536A (en) 1995-09-08 1995-09-08 Pattern recognition method and apparatus

Publications (1)

Publication Number Publication Date
JPH0981536A true JPH0981536A (en) 1997-03-28

Family

ID=16923486

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7231433A Pending JPH0981536A (en) 1995-09-08 1995-09-08 Pattern recognition method and apparatus

Country Status (1)

Country Link
JP (1) JPH0981536A (en)

Similar Documents

Publication Publication Date Title
US7362892B2 (en) Self-optimizing classifier
Elkano et al. Enhancing multiclass classification in FARC-HD fuzzy classifier: On the synergy between $ n $-dimensional overlap functions and decomposition strategies
Abe et al. A fuzzy classifier with ellipsoidal regions
KR101254181B1 (en) Face recognition method using data processing technologies based on hybrid approach and radial basis function neural networks
Caelli et al. Modularity in neural computing
US5638491A (en) Method and apparatus for hierarchical input classification using a neural network
Vigdor et al. The bayesian artmap
CN111291604A (en) Facial attribute recognition method, device, storage medium and processor
CN109871872A (en) A real-time traffic classification method based on shell vector SVM incremental learning model
US7233692B2 (en) Method and computer program product for identifying output classes with multi-modal dispersion in feature space and incorporating multi-modal structure into a pattern recognition system
US5438629A (en) Method and apparatus for input classification using non-spherical neurons
US20180137409A1 (en) Method of constructing an artifical intelligence super deep layer learning model, device, mobile terminal, and software program of the same
US7181062B2 (en) Modular classification architecture for a pattern recognition application
US7634140B2 (en) Pattern feature selection method, classification method, judgment method, program, and device
Fu et al. Data dimensionality reduction with application to improving classification performance and explaining concepts of data sets
Gorokhovatskiy et al. Vector Quantization, Learning and Recognition in the Space of Descriptors of Structural Features of Images
CN109800854A (en) A kind of Hydrophobicity of Composite Insulator grade determination method based on probabilistic neural network
JPH0981536A (en) Pattern recognition method and apparatus
Singh et al. Ensemble of hybrid CNN models for brain tumor classification
JPH09231079A (en) Fuzzy reasoning system and fuzzy rule construction system
CN115410250A (en) Array type human face beauty prediction method, device and storage medium
CN115116115A (en) Face recognition and model training method and device thereof
Cardoso et al. Neocognitron and the map transformation cascade
US20040064425A1 (en) Physics based neural network
Fakhrahmad et al. A new rule-weight learning method based on gradient descent