JP3475886B2 - Pattern recognition apparatus and method, and recording medium - Google Patents
Pattern recognition apparatus and method, and recording mediumInfo
- Publication number
- JP3475886B2 JP3475886B2 JP36748499A JP36748499A JP3475886B2 JP 3475886 B2 JP3475886 B2 JP 3475886B2 JP 36748499 A JP36748499 A JP 36748499A JP 36748499 A JP36748499 A JP 36748499A JP 3475886 B2 JP3475886 B2 JP 3475886B2
- Authority
- JP
- Japan
- Prior art keywords
- feature
- dimensional
- vector
- pattern
- dictionary
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Character Discrimination (AREA)
- Image Analysis (AREA)
Description
【0001】[0001]
【発明の属する技術分野】本発明は文字認識、音声認識
等を行うためのパターン認識装置に関し、特に大分類部
を備えたパターン認識装置及び方法並びに記録媒体に関
する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a pattern recognition apparatus for performing character recognition, voice recognition, etc., and more particularly to a pattern recognition apparatus and method and a recording medium having a large classification section.
【0002】[0002]
【従来の技術】文字認識・音声認識において、統計的パ
ターン認識手法を用いたパターン認識は、一般に、学習
フェーズと認識フェーズとから構成される。2. Description of the Related Art In character recognition and voice recognition, pattern recognition using a statistical pattern recognition method generally comprises a learning phase and a recognition phase.
【0003】学習フェーズでは、各学習パターンから数
十〜数千次元の特徴量を抽出した後、この特徴空間にお
ける認識対象カテゴリの分布やカテゴリ境界の位置を学
習する。学習結果は、識別用辞書として保存される。In the learning phase, tens to thousands of feature quantities are extracted from each learning pattern, and then the distribution of recognition target categories and the position of category boundaries in this feature space are learned. The learning result is saved as an identification dictionary.
【0004】認識フェーズでは、入力パターンから同様
の手順で抽出した特徴量を識別手法によって上記識別用
辞書と照合し、識別結果を出力する。In the recognition phase, the feature quantity extracted from the input pattern in the same procedure is collated with the discrimination dictionary by the discrimination method, and the discrimination result is output.
【0005】識別手法の例としては、従来より、 ・最近傍識別法、 ・単純類似度法、 ・混合類似度法、 ・部分空間法、 ・疑似ベイズ識別法、 など各種手法が知られている。As an example of the identification method, conventionally, ・ Nearest neighbor identification method, ・ Simple similarity method, ・ Mixed similarity method, ・ Subspace method, ・ Pseudo Bayes identification method, Various methods are known.
【0006】このような識別手法は、比較的構築が容易
な上、優れた識別性能を実現できることから、頻繁に認
識装置に利用されている。しかしながら、扱う特徴量が
高次元であるため、程度の差はあっても、計算コストが
高い(多量の計算を要する)、という問題点がある。Since such an identification method is relatively easy to construct and can realize excellent identification performance, it is frequently used in a recognition device. However, since the feature quantity to be handled is high-dimensional, there is a problem that the calculation cost is high (a large amount of calculation is required) even though there is a difference in degree.
【0007】そこで、計算量を削減するための手法とし
て、特徴選択により、特徴の次元数を削減して認識する
手法や、詳細識別の前に大分類を行う方法などが提案さ
れている。Therefore, as a method for reducing the amount of calculation, a method of recognizing by reducing the dimension number of the feature by the feature selection, a method of performing a large classification before the detailed identification, and the like have been proposed.
【0008】特徴選択により、次元数を削減して識別す
る手法の代表例としては、
・主成分分析、もしくは正準判別分析によって特徴次元
数を削減する手法(電子情報通信学会論文誌Vol.J78-D-
II No.11 pp.1627-1638、以下「文献a」という)、
・分散比と分散の両方を特徴選択の基準としたFKL法
によって次元削減し識別を行う手法(電子情報通信学会
論文誌Vol.J80-D-II No.1 pp.73-80、以下「文献b」と
いう)や、
・特徴選択のための辞書及び認識用辞書を学習により同
時に学習する手法(特開平9−245125号公報、以
下「文献c」という)などが知られている。Typical examples of a method for reducing the number of dimensions to identify by feature selection are: A method for reducing the number of feature dimensions by principal component analysis or canonical discriminant analysis (IEICE Transactions Vol.J78 -D-
II No.11 pp.1627-1638, hereinafter referred to as "reference a") ・ A method for dimension reduction and identification by the FKL method that uses both the variance ratio and the variance as criteria for feature selection (IEICE Transactions Vol. .J80-D-II No.1 pp.73-80, hereinafter referred to as "reference b"), and a method for simultaneously learning a dictionary for feature selection and a recognition dictionary (Japanese Patent Laid-Open No. 9-245125). (Hereinafter referred to as “reference c”) and the like are known.
【0009】上記文献a、文献bに記載されている手法
では、まず、各学習パターンから抽出したn次元特徴に
対して、主成分分析や正準判別分析、もしくはこれらを
組み合わせた「FKL法」と呼ばれる分析を施して、特
徴選択辞書を作成し、これに基づいてn次元の原特徴を
m(m≦n)次元特徴に変換する。In the methods described in the above references a and b, first, principal component analysis, canonical discriminant analysis, or "FKL method" in which these are combined with respect to the n-dimensional feature extracted from each learning pattern. Is performed to create a feature selection dictionary, and based on this, the n-dimensional original features are converted into m (m ≦ n) -dimensional features.
【0010】そして変換後のm次元特徴空間におけるカ
テゴリ分布もしくはカテゴリ境界を学習し識別用辞書を
作成する。Then, the category distribution or category boundaries in the transformed m-dimensional feature space is learned to create an identification dictionary.
【0011】認識時は、入力パターンに対して同様の特
徴抽出及び特徴選択を施して抽出したm次元特徴と識別
用辞書を照合し認識を行う。At the time of recognition, similar feature extraction and feature selection are performed on the input pattern, and the extracted m-dimensional feature is collated with the identification dictionary for recognition.
【0012】上記文献cに記載されている方法は、m次
元特徴の集合からなる識別用辞書だけでなく、n次元特
徴からm次元特徴を選択するための特徴選択辞書も同時
に学習によって作成する。The method described in the above-mentioned document c creates not only an identification dictionary composed of a set of m-dimensional features but also a feature selection dictionary for selecting m-dimensional features from n-dimensional features by learning at the same time.
【0013】主成分分析や正準判別分析によって求めら
れる固有ベクトルを用いて変換されたm次元特徴空間は
識別に関して最適な空間であるとは限らないが、上記文
献cの方法によれば、より識別に適した特徴選択辞書及
び詳細識別用辞書を構築できる可能性がある。Although the m-dimensional feature space transformed by using the eigenvectors obtained by the principal component analysis or the canonical discriminant analysis is not always the optimal space for the identification, the method of the above-mentioned document c makes the identification more effective. There is a possibility that a feature selection dictionary and a detailed identification dictionary suitable for can be constructed.
【0014】但し、上記文献cによれば、原特徴量256
次元からm=16次元の特徴を選択して、部分空間法によ
り認識した場合と、おおむね同等の認識性能であること
が記載されており、16次元よりも高次の部分空間で認識
した場合に比べ認識性能が低下していると考えられる。
すなわち、この手法は、認識性能よりも、認識速度に重
きを置いたものであるといえる。However, according to the above-mentioned document c, the original feature amount 256
It is described that the recognition performance is roughly equivalent to that when recognition is performed by the subspace method by selecting a feature of m = 16 dimensions from the dimensions, and when recognition is performed in a subspace higher than 16 dimensions. It is considered that the recognition performance is lower than that of the above.
That is, it can be said that this method emphasizes the recognition speed rather than the recognition performance.
【0015】一方、低次元空間で大分類を行う手法の例
としては、原特徴を数次元毎に平均化して集約し、得ら
れた低次元の特徴を用いて大分類する場合が多い。On the other hand, as an example of a method for performing large classification in a low-dimensional space, there are many cases where original features are averaged and aggregated for each number of dimensions, and the obtained low-dimensional features are used for large classification.
【0016】前記の特徴選択による次元圧縮手法が、n
次元の原特徴からm次元特徴を選択するために、m×n
回の積和演算を要するのに対し、この方法では、n回の
加算演算とm回の除算によって次元を圧縮可能なので、
m次元特徴を高速に抽出できるといった利点がある。The dimensional compression method by the above feature selection is n
M × n to select m-dimensional features from dimensional original features
In this method, the dimension can be compressed by addition operation of n times and division of m times, whereas
There is an advantage that the m-dimensional feature can be extracted at high speed.
【0017】しかし、この特徴選択方法は、認識性能の
低下を招きやすいため、より認識性能を上げるには、主
成分分析や正準判別分析によって特徴選択を行い大分類
する(以下「手法d」という)のがよい。However, since this feature selection method is likely to cause deterioration in recognition performance, in order to further improve recognition performance, feature selection is performed by principal component analysis or canonical discriminant analysis, and classification is performed roughly (hereinafter referred to as "method d"). Is good).
【0018】この手法dは、文献a及び文献b等に代表
される手法に比べ、一般的に、速度は遅いが、認識性能
は同等以上の性能を実現できる。The method d is generally slower than the methods represented by the documents a and b, but the recognition performance is equal to or higher than the recognition performance.
【0019】なお、部分空間法によってパターン認識を
行う際に使用する認識辞書を学習により生成する従来の
手法として、例えば特開平10−301917号公報に
は、入力ベクトルと同じカテゴリに属する部分空間群の
中から、入力ベクトルとの距離が最小となる第1の部分
空間を求めるとともに、入力ベクトルと異なるカテゴリ
に属する部分空間群の中から、入力ベクトルとの間の距
離が最小となる第2の部分空間を求め、第1辞書修正手
段は、第1の部分空間が入力ベクトルに近づくように、
第1の部分空間の原点の位置ベクトル、基底ベクトルを
修正し、第2辞書修正手段は、第2の部分空間が入力ベ
クトルに遠ざかるように、第2の部分空間の原点の位置
ベクトル、基底ベクトルを修正することで、学習パター
ンに対する誤認識率を低減する認識辞書学習方法及び装
置が提案されている。しかしながら、上記特開平10−
301917号公報に記載された方法及び装置は、特徴
選択により、特徴の次元数を削減して認識するための手
段を提供することを課題としたものではない。As a conventional technique for generating a recognition dictionary used for pattern recognition by the subspace method by learning, for example, Japanese Patent Laid-Open No. 10-301917 discloses a subspace group belonging to the same category as the input vector. From among the subspaces belonging to a category different from the input vector, the second subspace having the smallest distance to the input vector is obtained. The subspace is obtained, and the first dictionary correction means makes the first subspace closer to the input vector,
The position vector and base vector of the origin of the first subspace are corrected, and the second dictionary correction means sets the position vector and base vector of the origin of the second subspace so that the second subspace moves away from the input vector. Has been proposed, a recognition dictionary learning method and apparatus for reducing the erroneous recognition rate for a learning pattern have been proposed. However, the above-mentioned JP-A-10-
The method and apparatus described in Japanese Laid-Open Patent Publication No. 301917 does not aim to provide a means for reducing the dimensionality of a feature and recognizing it by feature selection.
【0020】[0020]
【発明が解決しようとする課題】上記したことから、原
特徴を用いて実現できる認識性能を維持しつつ、認識速
度を向上するには、上記手法dが最も有効である、と思
料される。From the above, it is considered that the above method d is most effective for improving the recognition speed while maintaining the recognition performance that can be realized by using the original feature.
【0021】しかしながら、上記手法dを用いた場合で
も、選択する次元数の低下に伴って認識性能が低下する
傾向がある。その1つの原因は、主成分分析や正準判別
分析によって選択される特徴軸が、必ずしも大分類に最
適ではない、ことによる。However, even when the above method d is used, the recognition performance tends to decrease as the number of selected dimensions decreases. One of the reasons is that the feature axis selected by the principal component analysis or the canonical discriminant analysis is not necessarily optimal for large classification.
【0022】まず、主成分分析を用いる場合の問題点に
ついて、図10を参照して説明する。図10は、2次元
原特徴空間に存在する3種類のカテゴリに属するデータ
の分布を示す図である。First, the problem in using the principal component analysis will be described with reference to FIG. FIG. 10 is a diagram showing distribution of data belonging to three types of categories existing in the two-dimensional original feature space.
【0023】データ分布範囲1001、1002、10
03は、それぞれカテゴリA、B、Cに属するデータの
分布範囲を示す。特徴軸1004は、本データに対して
主成分分析により選択される特徴軸(第1主軸)を示
す。Data distribution range 1001, 1002, 10
Reference numeral 03 denotes a distribution range of data belonging to categories A, B, and C, respectively. The characteristic axis 1004 indicates the characteristic axis (first main axis) selected by the principal component analysis for this data.
【0024】主成分分析によって2次元特徴を1次元特
徴に変換するというのは、図10においては、2次元特
徴空間中の各パターンを、特徴軸1004上に投影する
ことに等しい。Converting a two-dimensional feature into a one-dimensional feature by principal component analysis is equivalent to projecting each pattern in the two-dimensional feature space onto the feature axis 1004 in FIG.
【0025】そこで、2次元特徴空間におけるカテゴリ
A、B、Cの各2次元参照パターンを特徴軸1004上
に投影した1次元の参照パターンをそれぞれ1次元参照
パターン1006、1008、1009とする。Therefore, the one-dimensional reference patterns obtained by projecting the two-dimensional reference patterns of the categories A, B, and C in the two-dimensional feature space on the feature axis 1004 are referred to as one-dimensional reference patterns 1006, 1008, and 1009, respectively.
【0026】また、カテゴリAに属するパターン100
5を特徴軸1004上に投影した1次元のパターンを1
次元パターン1007とする。The pattern 100 belonging to category A
1 is a one-dimensional pattern obtained by projecting 5 on the feature axis 1004.
The dimension pattern 1007 is used.
【0027】すると、図10からも明らかなように、こ
の1次元特徴空間において、大分類を行い2つの候補カ
テゴリを抽出する場合を考えると、正解であるカテゴリ
Aに属する1次元参照パターン1006は3つの1次元
参照パターンのうち1次元パターン1007から最も離
れた位置にあることから、大分類の候補として選出され
ない。Then, as is clear from FIG. 10, considering the case of performing large classification and extracting two candidate categories in this one-dimensional feature space, the one-dimensional reference pattern 1006 belonging to the correct category A is Since it is at the farthest position from the one-dimensional pattern 1007 among the three one-dimensional reference patterns, it is not selected as a candidate for large classification.
【0028】つまり、3つのカテゴリはY軸方向に良好
に分離しているにもかかわらず、主成分分析によって得
られる特徴軸上では、大分類が必ずしもうまく行えな
い、ということがわかる。That is, it is understood that, although the three categories are well separated in the Y-axis direction, large classification cannot always be performed well on the feature axis obtained by the principal component analysis.
【0029】また判別分析を用いる場合の問題点として
は、
1)各カテゴリのデータ分布が正規分布であることを仮
定しているが、特徴空間における音声パターンや文字パ
ターンの分布形状は一般的に正規分布ではない、
2)識別に有効な特徴が最大(識別対象カテゴリ数−
1)個しか得られない、といった点が挙げられる。The problems in using the discriminant analysis are as follows: 1) It is assumed that the data distribution of each category is a normal distribution. However, the distribution pattern of voice patterns and character patterns in the feature space is generally Not a normal distribution, 2) The maximum number of features that are effective for identification (number of categories to be identified −
1) Only points can be obtained.
【0030】例えば手書数字10カテゴリを認識する場
合には、最大9個の特徴しか選択できないため、特徴選
択の手法としては、現在ではあまり使用されていない。For example, when recognizing a handwritten numeral 10 category, only nine features can be selected at the maximum, so that it is not used as a feature selection method at present.
【0031】したがって本発明は、上記問題点に鑑みて
なされたものであって、その目的は、主成分分析や判別
分析に基づいて大分類を行う認識装置と比べ、大分類に
用いる特徴次元数及び候補数を同条件とした場合に、よ
り高い認識精度を実現可能な認識装置パターン認識装置
及び方法並びに記録媒体を提供することにある。これ以
外の本発明の目的、特徴、利点等は、以下の説明から当
業者には直ちに明らかとされるであろう。Therefore, the present invention has been made in view of the above problems, and its purpose is to compare the number of feature dimensions used for large classification with a recognition apparatus that performs large classification based on principal component analysis or discriminant analysis. Another object of the present invention is to provide a recognition device pattern recognition device and method, and a recording medium that can realize higher recognition accuracy when the number of candidates is the same. Other objects, features, advantages and the like of the present invention will be immediately apparent to those skilled in the art from the following description.
【0032】[0032]
【課題を解決するための手段】前記目的を達成する本発
明は、入力パターンから1次特徴としてn次元の特徴を
抽出する特徴抽出部と、前記1次特徴をm次元(m<
n)の特徴に変換する関数を記憶する特徴選択辞書と、
前記特徴選択辞書に記憶される関数に基づき、2次特徴
として前記1次特徴からm次元の特徴を抽出する特徴選
択部と、前記1次特徴に基づく認識用に予め作成してあ
る詳細識別用辞書と、前記詳細識別用辞書中に含まれる
各々の詳細識別用参照パターンを前記特徴選択辞書に記
憶されている関数に基づいてm次元の大分類用参照パタ
ーンに変換し記憶する大分類辞書作成部と、前記大分類
用参照パターンの中から前記特徴選択部で抽出した2次
特徴との距離が近い上位K個の大分類用参照パターンを
抽出し、これらに対応する前記詳細識別用参照パターン
を特定する情報を出力する大分類部と、前記大分類部の
出力情報によって特定されるK個の前記詳細識別用参照
パターンと前記特徴抽出部が抽出した1次特徴とを照合
して、照合結果を出力する詳細識別部と、前記照合結果
を加工してメモリやディスプレイなどに出力する認識結
果出力部と、前記特徴選択辞書に記憶される関数の学習
時には、前記大分類用参照パターン中に含まれる正解カ
テゴリの参照パターンのうち、学習パターンから抽出し
た前記2次特徴との距離が最も近い大分類用参照パター
ンを参照パターンAとして抽出し、さらに前記大分類用
参照パターン中に含まれる不正解カテゴリの参照パター
ンのうち、前記2次特徴との距離が最も近い大分類用参
照パターンを参照パターンBとして抽出した後、前記2
次特徴と前記参照パターンAとの距離がより近づき、更
に前記2次特徴と前記参照パターンBとの距離がより遠
ざかるように前記特徴選択関数を修正する特徴選択辞書
修正部を備えることを特徴とする。In order to achieve the above object, the present invention provides a feature extraction unit for extracting an n-dimensional feature as a primary feature from an input pattern and an m-dimensional (m <m
n) a feature selection dictionary that stores a function for converting into features,
A feature selection unit that extracts an m-dimensional feature from the primary feature as a secondary feature based on a function stored in the feature selection dictionary, and a detailed identification created in advance for recognition based on the primary feature Creating a dictionary and a large classification dictionary that converts each detailed identification reference pattern included in the detailed identification dictionary into an m-dimensional large classification reference pattern based on a function stored in the feature selection dictionary and stores the reference pattern Part and the large-classification reference patterns, the upper K large-classification reference patterns that are close in distance to the secondary features extracted by the feature selection part are extracted, and the detailed identification reference patterns corresponding thereto are extracted. And a K-classification reference pattern specified by the output information of the large classification unit and the primary feature extracted by the feature extraction unit are collated to collate each other. The result Included in the general classification reference pattern at the time of learning the function of the detailed identification unit, the recognition result output unit that processes the collation result and outputs it to a memory or a display, and the function stored in the feature selection dictionary. Among the reference patterns of the correct answer category, the reference pattern for large classification, which is the closest to the secondary feature extracted from the learning pattern, is extracted as the reference pattern A, and the incorrect category included in the reference pattern for large classification is further extracted. Of the reference patterns, the large classification reference pattern closest to the secondary feature is extracted as the reference pattern B, and
A feature selection dictionary modifying unit that modifies the feature selection function so that the distance between the next feature and the reference pattern A becomes closer, and the distance between the secondary feature and the reference pattern B becomes farther. To do.
【0033】また本発明は、入力パターンから1次特徴
としてn次元の特徴を抽出する特徴抽出部と、前記1次
特徴をm次元(m<n)の特徴に変換する関数を記憶す
る特徴選択辞書と、前記特徴選択辞書に記憶される関数
に基づき、2次特徴として前記1次特徴からm次元の特
徴を抽出する特徴選択部と、前記1次特徴に基づき認識
用に予め作成してある詳細識別用辞書と、前記詳細識別
用辞書中に含まれる各々の詳細識別用参照パターンを前
記特徴選択辞書に記憶されている関数に基づいてm次元
の大分類用参照パターンに変換し記憶する大分類辞書作
成部と、前記大分類用参照パターンの中から前記特徴選
択部で抽出した2次特徴との類似度が大きい上位K個の
大分類用参照パターンを抽出し、これらに対応する前記
詳細識別用参照パターンを特定する情報を出力する大分
類部と、前記大分類部の出力情報によって特定されるK
個の前記詳細識別用参照パターンと前記特徴抽出部が抽
出した1次特徴とを照合して、照合結果を出力する詳細
識別部と、前記詳細識別部の出力を加工してメモリやデ
ィスプレイなどに出力する認識結果出力部と、前記特徴
選択辞書に記憶される特徴選択関数の学習時には、前記
大分類用参照パターン中に含まれる正解カテゴリの参照
パターンのうち、学習パターンから抽出した前記2次特
徴との類似度が最も高い大分類用参照パターンを参照パ
ターンAとして抽出し、さらに前記大分類用参照パター
ン中に含まれる不正解カテゴリの参照パターンのうち、
前記2次特徴との類似度が最も高い大分類用参照パター
ンを参照パターンBとして抽出した後、前記2次特徴と
前記参照パターンAとの類似度が増大し、更に前記2次
特徴と前記参照パターンBとの類似度がより減少するよ
うに前記特徴選択関数を修正する特徴選択辞書修正部を
備えることを特徴とする。Further, according to the present invention, a feature extracting section for extracting n-dimensional features as primary features from an input pattern, and a feature selection storing a function for converting the primary features into m-dimensional (m <n) features. A feature selection unit that extracts an m-dimensional feature from the primary feature as a secondary feature based on a dictionary and a function stored in the feature selection dictionary, and is created in advance for recognition based on the primary feature. The detailed identification dictionary and each of the detailed identification reference patterns included in the detailed identification dictionary are converted into an m-dimensional large classification reference pattern based on the function stored in the feature selection dictionary, and stored. The top K large classification reference patterns having a high degree of similarity between the classification dictionary creation unit and the large classification reference patterns with the secondary features extracted by the feature selection unit are extracted, and the details corresponding to these are extracted. Identification reference A major classification section for outputting information specifying the over emissions, K specified by the output information of the major classification section
The detailed identification reference pattern for each of the detailed identification and the primary feature extracted by the feature extraction unit are collated to output a collation result, and the output of the detailed identification unit is processed into a memory or a display. At the time of learning the recognition result output unit to output and the feature selection function stored in the feature selection dictionary, the secondary feature extracted from the learning pattern among the reference patterns of the correct category included in the reference pattern for large classification. The reference pattern for large classification having the highest similarity with is extracted as a reference pattern A, and further, among the reference patterns of the incorrect category included in the reference pattern for large classification,
After extracting the reference pattern B for large classification having the highest degree of similarity with the secondary feature as the reference pattern B, the degree of similarity between the secondary feature and the reference pattern A increases, and further, the secondary feature and the reference A feature selection dictionary modifying unit that modifies the feature selection function so that the degree of similarity with the pattern B is further reduced is provided.
【0034】本発明に係る方法は、入力パターンの1次
特徴をm次元(但し、m<n)の特徴に変換するための
特徴選択情報を記憶する特徴選択辞書と、入力パターン
の1次特徴に基づく認識のために予め作成されている詳
細識別用参照パターンをカテゴリ毎に記憶する詳細識別
用辞書と、を記憶する記憶手段と、備え、データ処理装
置が、特徴抽出部と、特徴選択部と、大分類辞書作成部
と、大分類部と、詳細識別部と、認識結果出力部と、特
徴選択辞書修正部と、を備えたパターン認識装置のパタ
ーン認識方法であって、学習フェーズが、(a)前記特
徴抽出部において、入力パターンから1次特徴としてn
次元の特徴を抽出するステップと、(b)前記特徴選択
部において、前記特徴選択辞書に記憶される関数に基づ
き、2次特徴として前記1次特徴からm次元の特徴を抽
出するステップと、(c)前記大分類辞書作成部におい
て、前記詳細識別用辞書中に含まれる各々の詳細識別用
参照パターンを、前記特徴選択辞書に記憶されている関
数に基づいて、m次元の大分類用参照パターンに変換し
記憶するステップと、(d)前記大分類部において、前
記大分類用参照パターンの中から前記特徴選択部で抽出
した2次特徴との距離が近い上位の所定個数(K個)の
大分類用参照パターンを抽出し、これらに対応する前記
詳細識別用参照パターンを特定する情報を出力するステ
ップと、(e)前記詳細識別部において、前記大分類処
理の出力情報によって特定される所定個数(K個)の前
記詳細識別用参照パターンと、前記特徴抽出処理で抽出
された1次特徴と、を照合して、照合結果を出力するス
テップと、(f)前記照合結果を加工して記憶装置又は
出力装置に出力する認識結果出力処理と、(g)前記特
徴選択辞書修正部において、前記特徴選択辞書に記憶さ
れる関数の学習時には、前記大分類用参照パターン中に
含まれる参照パターンのうち、学習パターンと同一のカ
テゴリに属し、且つ、学習パターンから抽出した前記2
次特徴との距離が最も近い大分類用参照パターンを第1
の参照パターンとして抽出し、さらに前記大分類用参照
パターン中に含まれる参照パターンのうち、学習パター
ンと同一でないカテゴリに属し、且つ前記2次特徴との
距離が最も近い大分類用参照パターンを第2の参照パタ
ーンとして抽出し、前記2次特徴と第1の前記参照パタ
ーンとの距離がより近づくとともに、前記2次特徴と前
記第2の参照パターンとの距離がより遠ざかるように、
前記特徴選択辞書の情報を修正するステップと、を含
む。The method according to the present invention includes a feature selection dictionary for storing feature selection information for converting a primary feature of an input pattern into an m-dimensional (where m <n) feature, and a primary feature of the input pattern. The data processing device includes a feature extraction unit and a feature selection unit, and a storage unit that stores a detail identification reference dictionary that stores, for each category, a detail identification reference pattern created in advance for recognition based on A pattern recognition method of a pattern recognition device comprising: a large classification dictionary creation unit, a large classification unit, a detailed identification unit, a recognition result output unit, and a feature selection dictionary correction unit, wherein the learning phase is (A) In the feature extraction unit, n is used as a primary feature from the input pattern.
Extracting a dimensional feature, and (b) extracting an m-dimensional feature from the primary feature as a secondary feature on the basis of a function stored in the feature selection dictionary in the feature selecting unit, c) In the large classification dictionary creating section, each of the detailed identification reference patterns included in the detailed identification dictionary is converted into an m-dimensional large classification reference pattern based on a function stored in the feature selection dictionary. And (d) in the large classification unit, a predetermined number (K) of upper ranks having a close distance to the secondary feature extracted by the feature selection unit from the large classification reference pattern. A step of extracting reference patterns for large classification and outputting information specifying the reference patterns for detailed identification corresponding to these; (e) in the detailed identification section, according to output information of the large classification processing. Collating a predetermined number (K) of the reference patterns for detailed identification with the primary features extracted by the feature extraction processing, and outputting a collation result; (f) the collation A recognition result output process of processing a result and outputting the result to a storage device or an output device, and (g) in the feature selection dictionary correction unit, at the time of learning a function stored in the feature selection dictionary, in the reference pattern for large classification Of the reference patterns included in the above, which belong to the same category as the learning pattern and are extracted from the learning pattern.
The first is the reference pattern for large classification that is closest to the next feature.
Of the reference patterns included in the reference pattern for large classification, which belong to a category that is not the same as the learning pattern and are closest to the secondary feature, So that the distance between the secondary feature and the first reference pattern becomes closer and the distance between the secondary feature and the second reference pattern becomes longer.
Modifying the information in the feature selection dictionary.
【0035】[0035]
【発明の実施の形態】本発明の実施の形態について説明
する。まず図9を参照して、本発明の原理・作用につい
て説明する。図9は、2次元の原特徴空間上に3つのカ
テゴリ(カテゴリA,B,C)のデータが分布している
様子を示す図である。BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described. First, the principle and operation of the present invention will be described with reference to FIG. FIG. 9 is a diagram showing how data of three categories (categories A, B, and C) are distributed in a two-dimensional original feature space.
【0036】本発明においては、2次元空間におけるカ
テゴリA、B、Cの参照パターンを現在の特徴選択辞書
(図1の106)により特徴選択して、1次元の参照パ
ターンに変換したものを、1次元参照パターン904、
905、906とし、カテゴリAに属する1つの学習パ
ターン901を同じ特徴選択辞書(106)により変換
して得た1次元特徴を1次元特徴910とする。In the present invention, the reference patterns of the categories A, B, and C in the two-dimensional space are feature-selected by the current feature selection dictionary (106 in FIG. 1) and converted into a one-dimensional reference pattern. One-dimensional reference pattern 904,
Let 905 and 906 be one-dimensional features obtained by converting one learning pattern 901 belonging to category A by the same feature selection dictionary (106) as one-dimensional feature 910.
【0037】すると、この時点では、1次元特徴910
はカテゴリBの1次元参照パターン905と最も距離が
近く、正解カテゴリであるカテゴリAの1次元参照パタ
ーン904とは距離が最も離れている。Then, at this point, the one-dimensional feature 910
Has the shortest distance from the one-dimensional reference pattern 905 of the category B, and the farthest from the one-dimensional reference pattern 904 of the category A which is the correct category.
【0038】従って、この特徴選択辞書(106)を用
いて2候補を抽出する大分類を行っても、カテゴリAは
候補として、選ばれない。Therefore, even if the feature selection dictionary (106) is used to perform a large classification for extracting two candidates, the category A is not selected as a candidate.
【0039】そこで、特徴選択辞書修正部(図1の10
8)は、正解カテゴリの1次元参照パターン904と1
次元特徴910との距離をより近づけ、更に1次元参照
パターン904に最も近い不正解カテゴリの参照パター
ン905と1次元特徴との距離がより離れるように特徴
選択辞書(106)を修正する。Therefore, the feature selection dictionary correction unit (10 in FIG. 1).
8) is the one-dimensional reference patterns 904 and 1 of the correct answer category.
The feature selection dictionary (106) is modified so that the distance to the one-dimensional feature 910 becomes closer, and further the distance between the one-dimensional feature and the reference pattern 905 in the incorrect category that is closest to the one-dimensional reference pattern 904 becomes farther.
【0040】図9に示す例では、このような特徴選択辞
書(106)の修正を行うと特徴軸が右に回転する。In the example shown in FIG. 9, the correction of the feature selection dictionary (106) causes the feature axis to rotate to the right.
【0041】そこで得られた特徴選択辞書(106)に
基づいて、1次元参照パターン及び1次元特徴を再度計
算し直す。Based on the feature selection dictionary (106) thus obtained, the one-dimensional reference pattern and the one-dimensional feature are recalculated.
【0042】新たな特徴軸が特徴軸903であるとすれ
ば、本軸上では、学習パターンを投影した1次元特徴9
08が正解カテゴリの1次元参照パターン907に最も
近くなり、正しく大分類の候補として選出されるように
なっている。If the new feature axis is the feature axis 903, on the main axis, the one-dimensional feature 9 on which the learning pattern is projected is projected.
08 is closest to the one-dimensional reference pattern 907 of the correct category, and is correctly selected as a candidate for large classification.
【0043】このような作用により、特徴選択辞書修正
部(108)を持たない構成の装置に比べ、認識率を向
上することができる。With such an operation, the recognition rate can be improved as compared with a device having no feature selection dictionary correction section (108).
【0044】本発明に係る方法は、その好ましい一実施
の形態において、図1を参照すると入力パターンの1次
特徴をm次元(但し、m<n)の特徴に変換するための
特徴選択情報を記憶する特徴選択辞書(106)と、入
力パターンの1次特徴に基づく認識のために予め作成さ
れている詳細識別用参照パターンをカテゴリ毎に記憶す
る詳細識別用辞書(104)とを備え、詳細識別用辞書
(104)中のn次元の参照パターンと、学習パターン
から抽出されたn次元特徴とから、特徴選択辞書(10
6)の内容に基づき、m(m<n)次元参照パターンと
m次元特徴とを抽出し、学習パターンと同一カテゴリに
属するm次元参照パターンのうち、前記m次元特徴との
距離が最も近い参照パターンを、第1の参照パターンと
して抽出し、学習パターンと異なるカテゴリに属するm
次元参照パターンのうち、前記m次元特徴との距離が最
も近い参照パターンを第2の参照パターンとして抽出
し、前記m次元特徴と前記第1の参照パターンとの距離
がより近づくとともに、更に前記m次元特徴と前記第2
の参照パターンとの距離がより遠ざかるように特徴選択
辞書(106)の内容を更新する。In a preferred embodiment of the method according to the present invention, referring to FIG. 1, feature selection information for converting primary features of an input pattern into m-dimensional features (where m <n) is provided. A feature selection dictionary (106) to be stored and a detail identification dictionary (104) that stores a reference pattern for detail identification, which is created in advance for recognition based on the primary feature of the input pattern, are stored for each category. From the n-dimensional reference pattern in the identification dictionary (104) and the n-dimensional features extracted from the learning pattern, the feature selection dictionary (10
Based on the content of 6), an m (m <n) -dimensional reference pattern and an m-dimensional feature are extracted, and among the m-dimensional reference patterns that belong to the same category as the learning pattern, a reference that is closest to the m-dimensional feature. The pattern is extracted as the first reference pattern and belongs to a category different from the learning pattern m
Of the dimensional reference patterns, the reference pattern closest to the m-dimensional feature is extracted as a second reference pattern, and the distance between the m-dimensional feature and the first reference pattern becomes shorter, and the m Dimensional feature and the second
The content of the feature selection dictionary (106) is updated so that the distance from the reference pattern of is further.
【0045】本発明のパターン認識装置は、その好まし
い一実施の形態において、データ入力部(101)から
入力されたパターンから1次特徴としてn次元の特徴を
抽出する特徴抽出部(102)と、1次特徴をm次元
(但し、m<n)の特徴に変換する関数(特徴選択情
報)を記憶する特徴選択辞書(106)と、特徴選択辞
書(106)に記憶される情報に基づき、2次特徴とし
て前記1次特徴からm次元の特徴を抽出する特徴選択部
(103)と、1次特徴に基づく認識用に予め作成され
ている詳細識別用参照パターンを記憶する詳細識別用辞
書(104)と、詳細識別用辞書(104)中に含まれ
る各々の詳細識別用参照パターンを、特徴選択辞書(1
06)に記憶されている関数(特徴選択情報)に基づい
て、m次元の大分類用参照パターンに変換し記憶する大
分類辞書作成部(105)と、大分類用参照パターンの
中から特徴選択部(103)で抽出した2次特徴との距
離が近い上位の所定個数(K個)の大分類用参照パター
ンを抽出し、これらに対応する詳細識別用参照パターン
を特定する情報を出力する大分類部(107)と、大分
類部(107)の出力情報によって特定される所定個数
(K個)の前記詳細識別用参照パターンと、前記特徴抽
出部が抽出した1次特徴と、を照合して、照合結果を出
力する詳細識別部(109)と、照合結果を加工して記
憶装置又は出力装置に出力する認識結果出力部(11
0)と、特徴選択辞書(106)に記憶される関数(特
徴選択情報)の学習時には、前記大分類用参照パターン
中に含まれる参照パターンのうち、学習パターンと同一
のカテゴリ(以下、「正解カテゴリ」という)に属し、
且つ、学習パターンから抽出した前記2次特徴との距離
が最も近い大分類用参照パターンを参照パターン(A)
として抽出し、さらに前記大分類用参照パターン中に含
まれる参照パターンのうち、学習パターンと同一でない
カテゴリ(以下、「不正解カテゴリ」という)に属し、
且つ前記2次特徴との距離が最も近い大分類用参照パタ
ーンを参照パターン(B)として抽出した後、前記2次
特徴と前記参照パターン(A)との距離がより近づき、
更に前記2次特徴と前記参照パターン(B)との距離が
より遠ざかるように、前特徴選択辞書(106)を修正
する特徴選択辞書修正部(108)と、を備える。In a preferred embodiment of the pattern recognition apparatus of the present invention, a feature extraction unit (102) for extracting n-dimensional features as primary features from a pattern input from a data input unit (101), Based on a feature selection dictionary (106) storing a function (feature selection information) for converting a primary feature into an m-dimensional (m <n) feature, and information stored in the feature selection dictionary (106), 2 A feature selection unit (103) for extracting an m-dimensional feature from the primary feature as the next feature, and a detailed identification dictionary (104 for storing a detailed identification reference pattern created in advance for recognition based on the primary feature). ) And each of the detailed identification reference patterns included in the detailed identification dictionary (104) are assigned to the feature selection dictionary (1
Based on the function (feature selection information) stored in 06), a large classification dictionary creation unit (105) that converts and stores the m-dimensional large classification reference pattern and a feature selection from the large classification reference pattern. A predetermined large number (K) of large-classification reference patterns that are close in distance to the secondary features extracted by the unit (103) are extracted, and information that specifies the detailed identification reference patterns corresponding to these is output. The classification unit (107) and a predetermined number (K) of the detailed identification reference patterns specified by the output information of the large classification unit (107) are collated with the primary features extracted by the feature extraction unit. A detailed identification section (109) for outputting the collation result, and a recognition result output section (11) for processing the collation result and outputting it to a storage device or an output device.
0) and the function (feature selection information) stored in the feature selection dictionary (106), the same category (hereinafter, “correct answer”) as the learning pattern among the reference patterns included in the large classification reference pattern. Category)),
In addition, the reference pattern for large classification, which is the closest to the secondary feature extracted from the learning pattern, is the reference pattern (A).
Of the reference patterns included in the reference pattern for large classification, which belong to a category that is not the same as the learning pattern (hereinafter referred to as “incorrect answer category”),
Further, after the reference pattern (B) for large classification having the closest distance to the secondary feature is extracted as the reference pattern (B), the distance between the secondary feature and the reference pattern (A) becomes closer,
Furthermore, a feature selection dictionary correction unit (108) that corrects the previous feature selection dictionary (106) is provided so that the distance between the secondary feature and the reference pattern (B) becomes longer.
【0046】本発明のパターン認識装置は、その一実施
の形態において、上記した特徴抽出部(102)と、特
徴選択部(103)と、大分類辞書作成部(105)
と、大分類部(107)と、詳細識別部(109)と、
認識結果出力部(110)と、特徴選択辞書修正部(1
08)の上記各部における処理は、コンピュータ上で実
行されるプログラムにより実現される。この場合、該プ
ログラムを記録した記録媒体(半導体メモリ、FD(フ
ロッピディスク)、CD−ROM、MT(磁気テー
プ)、DVD(digital versatile disk))等の各種
媒体を、もしくは、通信媒体を介して、該媒体の読み出
し装置及びインタフェースを介してコンピュータに読み
出し、実行形式のプログラムをコンピュータの主記憶に
ロードして実行することで、本発明を実施することがで
きる。In one embodiment of the pattern recognition apparatus of the present invention, the above-mentioned feature extraction section (102), feature selection section (103), and large classification dictionary creation section (105).
A large classification section (107), a detailed identification section (109),
A recognition result output unit (110) and a feature selection dictionary correction unit (1
The processing in each unit of 08) is realized by a program executed on a computer. In this case, various media such as a recording medium (semiconductor memory, FD (floppy disk), CD-ROM, MT (magnetic tape), DVD (digital versatile disk)) on which the program is recorded or a communication medium are used. The present invention can be implemented by reading the program into the computer through the reading device and the interface of the medium, loading the executable program into the main memory of the computer, and executing the program.
【0047】より詳細には、本発明に係る、プログラム
を記録した記録媒体は、その一実施の形態において、パ
ターン認識装置において、入力パターンの1次特徴(n
次元)をm次元(但し、mはnより小の正整数)の特徴
に変換する関数を記憶する特徴選択辞書と、前記1次特
徴に基づく認識用に予め作成されている詳細識別用参照
パターンを記憶する詳細識別用辞書と、を記憶する記憶
装置を備え、(a)入力パターンから1次特徴としてn
次元の特徴を抽出する特徴抽出処理と、(b)前記特徴
選択辞書に記憶される関数に基づき、2次特徴として前
記1次特徴からm次元の特徴を抽出する特徴選択処理
と、(c)前記詳細識別用辞書中に含まれる各々の詳細
識別用参照パターンを、前記特徴選択辞書に記憶されて
いる関数に基づいて、m次元の大分類用参照パターンに
変換し記憶する大分類辞書作成処理と、(d)前記大分
類用参照パターンの中から前記特徴選択部で抽出した2
次特徴との距離が近い上位の所定個数(K個)の大分類
用参照パターンを抽出し、これらに対応する前記詳細識
別用参照パターンを特定する情報を出力する大分類処理
と、(e)前記大分類処理の出力情報によって特定され
る所定個数(K個)の前記詳細識別用参照パターンと、
前記特徴抽出処理で抽出された1次特徴と、を照合し
て、照合結果を出力する詳細識別処理と、(f)前記照
合結果を加工して記憶装置又は出力装置に出力する認識
結果出力処理と、(g)前記特徴選択辞書に記憶される
関数の学習時には、前記大分類用参照パターン中に含ま
れる参照パターンのうち、学習パターンと同一のカテゴ
リ(以下、「正解カテゴリ」という)に属し、且つ、学
習パターンから抽出した前記2次特徴との距離が最も近
い大分類用参照パターンを参照パターン(A)として抽
出し、さらに前記大分類用参照パターン中に含まれる参
照パターンのうち、学習パターンと同一でないカテゴリ
(以下、「不正解カテゴリ」という)に属し、且つ前記
2次特徴との距離が最も近い大分類用参照パターンを参
照パターン(B)として抽出し、前記2次特徴と前記参
照パターン(A)との距離がより近づき、更に前記2次
特徴と前記参照パターン(B)との距離がより遠ざかる
ように、前記特徴選択辞書の関数を修正する特徴選択辞
書修正処理と、の前記(a)乃至(g)の各処理を、パ
ターン認識装置を構成するコンピュータで実行させるた
めのプログラムを保持している。More specifically, a recording medium having a program recorded thereon according to the present invention is, in one embodiment thereof, a primary feature (n) of an input pattern in a pattern recognition device.
Feature selection dictionary that stores a function for converting a dimension to an m-dimensional feature (where m is a positive integer smaller than n), and a reference pattern for detailed identification created in advance for recognition based on the primary feature And a storage device for storing the detailed identification dictionary for storing
A feature extraction process for extracting a dimensional feature, and (b) a feature selection process for extracting an m-dimensional feature from the primary feature as a secondary feature based on a function stored in the feature selection dictionary; A large classification dictionary creating process of converting each detailed identification reference pattern included in the detailed identification dictionary into an m-dimensional large classification reference pattern based on a function stored in the feature selection dictionary and storing the reference pattern. (D) 2 extracted by the feature selection unit from the large-classification reference pattern
A large classification process of extracting a predetermined number (K) of large classification reference patterns close to the next feature, and outputting information for specifying the detailed identification reference pattern corresponding to these; A predetermined number (K) of the detailed identification reference patterns specified by the output information of the large classification process;
A detailed identification process for collating the primary feature extracted by the feature extraction process and outputting a collation result, and (f) a recognition result output process for processing the collation result and outputting it to a storage device or an output device. (G) At the time of learning the function stored in the feature selection dictionary, it belongs to the same category as the learning pattern (hereinafter, referred to as “correct answer category”) among the reference patterns included in the large-classification reference pattern. Further, a large classification reference pattern that is closest to the secondary feature extracted from the learning pattern is extracted as a reference pattern (A), and further learning is performed from the reference patterns included in the large classification reference pattern. A large-classification reference pattern that belongs to a category that is not the same as the pattern (hereinafter referred to as “incorrect solution category”) and that has the closest distance to the secondary feature is referred to as a reference pattern (B). By extracting the function of the feature selection dictionary so that the distance between the secondary feature and the reference pattern (A) becomes closer and the distance between the secondary feature and the reference pattern (B) becomes further away. A program for causing the computer constituting the pattern recognition apparatus to execute the feature selection dictionary correction process to be corrected and each of the processes (a) to (g) is stored.
【0048】[0048]
【実施例】上記した本発明の実施の形態について更に詳
細に説明すべく、本発明の実施例について図面を参照し
て以下に説明する。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS In order to describe the embodiment of the present invention described above in more detail, an embodiment of the present invention will be described below with reference to the drawings.
【0049】図1は、本発明のパターン認識装置の第1
の実施例の構成を示す図である。図1を参照すると、こ
のパターン認識装置は、データ入力部101と、特徴抽
出部102と、特徴選択部103と、大分類部104
と、特徴選択辞書修正部105と、特徴選択辞書106
と、詳細識別用辞書107と、大分類辞書作成部108
と、詳細識別部109と、認識結果出力部110と、を
備えて構成されている。FIG. 1 shows a first pattern recognition apparatus according to the present invention.
It is a figure which shows the structure of the Example of this. Referring to FIG. 1, the pattern recognition device includes a data input unit 101, a feature extraction unit 102, a feature selection unit 103, and a large classification unit 104.
A feature selection dictionary correction unit 105 and a feature selection dictionary 106
A detailed identification dictionary 107 and a large classification dictionary creation unit 108
A detailed identification section 109 and a recognition result output section 110.
【0050】データ入力部101は、認識対象であるデ
ータを取り込んで特徴抽出部102に出力する。認識対
象のデータとしては、例えば画像データや音声データな
どが挙げられる。The data input unit 101 takes in the data to be recognized and outputs it to the feature extraction unit 102. Examples of the data to be recognized include image data and audio data.
【0051】特徴抽出部102は、データ入力部101
から入力されたデータから認識に有効なn次元特徴を抽
出し、特徴選択部103及び詳細識別部109に出力す
る。The feature extraction unit 102 is a data input unit 101.
The n-dimensional feature effective for recognition is extracted from the data input from the, and output to the feature selecting unit 103 and the detail identifying unit 109.
【0052】特徴選択部103は、特徴選択辞書106
を参照して、特徴抽出部102が出力するn次元特徴を
m次元特徴に変換し、これを大分類部104及び特徴選
択辞書修正部105に出力する。The feature selection unit 103 has a feature selection dictionary 106.
With reference to, the n-dimensional feature output by the feature extraction unit 102 is converted into an m-dimensional feature, and this is output to the large classification unit 104 and the feature selection dictionary correction unit 105.
【0053】詳細識別用辞書104は、予めなんらかの
学習方法によって構築されている詳細識別用の辞書であ
り、カテゴリコード及び参照パターン番号を付加したn
次元参照パターンの集合である。The detailed identification dictionary 104 is a dictionary for detailed identification that has been constructed in advance by some learning method, and has n added with a category code and a reference pattern number.
It is a set of dimension reference patterns.
【0054】大分類辞書作成部105は、詳細識別用辞
書104に格納されている各n次元参照パターンを特徴
選択辞書106に基づいて大分類用のm次元参照パター
ンに変換する処理部である。各n次元参照パターンとこ
れを変換して得た各m次元参照パターンとの対応関係が
わかるように、両者には同一の参照パターン番号を付加
する。The large classification dictionary creating unit 105 is a processing unit that converts each n-dimensional reference pattern stored in the detailed identification dictionary 104 into an m-dimensional reference pattern for large classification based on the feature selection dictionary 106. The same reference pattern number is added to both the n-dimensional reference patterns and the m-dimensional reference patterns obtained by converting the n-dimensional reference patterns.
【0055】特徴選択辞書106は、特徴選択のための
関数を記述した辞書である。線形変換による特徴選択に
限る場合は、変換行列(m×n行列)の各要素値を格納
すれば良い。The feature selection dictionary 106 is a dictionary describing a function for feature selection. In the case of feature selection by linear conversion, each element value of the conversion matrix (m × n matrix) may be stored.
【0056】大分類部107は、大分類辞書作成部10
5が出力するm次元参照パターンの集合の中から、特徴
選択部103が出力するm次元特徴パターンとの一致度
が高いパターンをK個抽出し、その参照パターン番号を
出力する処理部である。一致度の評価は、m次元空間に
おける特徴パターンと参照パターンとの距離に基づいて
も良いし、または類似度に基づいても良い。The large classification unit 107 is a large classification dictionary creating unit 10.
5 is a processing unit that extracts K patterns having a high degree of coincidence with the m-dimensional feature pattern output from the feature selecting unit 103 from the set of m-dimensional reference patterns output, and outputs the reference pattern number. The evaluation of the degree of coincidence may be based on the distance between the feature pattern and the reference pattern in the m-dimensional space, or may be based on the degree of similarity.
【0057】本実施例では、ユークリッド距離の2乗に
基づいて一致度を定義するものとする。In this embodiment, the degree of coincidence is defined based on the square of the Euclidean distance.
【0058】詳細識別部109は、大分類部107が出
力する参照パターン番号に対応するn次元参照パターン
の中から特徴抽出部102が出力するn次元特徴パター
ンに近いものを抽出し、そのカテゴリコード及び認識評
価値を出力する。具体的な識別アルゴリズムとしては、
最近傍識別、単純類似度識別、疑似ベイズ識別など各種
手法があり、任意の手法が用いられる。実施例では、最
近傍識別器を用いた例を示す。The detailed identification section 109 extracts from the n-dimensional reference patterns corresponding to the reference pattern numbers output by the general classification section 107, those close to the n-dimensional feature pattern output by the feature extraction section 102, and the category code thereof. And the recognition evaluation value are output. As a specific identification algorithm,
There are various methods such as nearest neighbor identification, simple similarity identification, and pseudo Bayes identification, and any method is used. In the embodiment, an example using the nearest neighbor discriminator is shown.
【0059】認識結果出力部110は、詳細識別部10
9が出力したカテゴリコード及び認識評価値を加工し
て、メモリやディスプレイ等に出力する。The recognition result output unit 110 includes a detailed identification unit 10
The category code and recognition evaluation value output by 9 are processed and output to a memory, a display, or the like.
【0060】特徴選択辞書修正部108は、学習フェー
ズのみ実行される処理部であり、正解カテゴリの参照パ
ターンが大分類部107においてより候補に残りやすく
なるように、特徴選択辞書106を修正する処理部であ
る。The feature selection dictionary correction unit 108 is a processing unit that executes only the learning phase, and a process of correcting the feature selection dictionary 106 so that the reference pattern of the correct answer category is more likely to remain as a candidate in the large classification unit 107. It is a department.
【0061】次に、図1に示した本発明の第1の実施例
の動作について説明する。Next, the operation of the first embodiment of the present invention shown in FIG. 1 will be described.
【0062】ここでは、理解をより容易にするために、
本発明を手書数字認識装置に応用した例について具体的
に説明する。また、この手書数字認識装置は、特徴選択
辞書の学習を行う学習フェーズと、完成した特徴選択辞
書を用いて入力データを次々と認識する認識フェーズか
ら構成されるため、各フェーズ毎に動作を説明する。Here, for easier understanding,
An example in which the present invention is applied to a handwritten numeral recognition device will be specifically described. Further, since this handwritten numeral recognition device is composed of a learning phase for learning the feature selection dictionary and a recognition phase for successively recognizing input data by using the completed feature selection dictionary, an operation is performed for each phase. explain.
【0063】まず学習フェーズの動作の一例について図
2を参照して説明する。図2は、学習フェーズの大きな
処理の流れを示すフローチャートである。この学習は、
いわゆる逐次学習である。First, an example of the operation of the learning phase will be described with reference to FIG. FIG. 2 is a flowchart showing the flow of a large process in the learning phase. This learning is
This is so-called sequential learning.
【0064】まず、学習サイクル数及び学習するパター
ン数を設定する(ステップS201)。First, the number of learning cycles and the number of patterns to be learned are set (step S201).
【0065】更に、特徴選択辞書106の初期化を行う
(ステップS202)。初期値は、例えば主成分分析に
よって設定する。すなわち、全学習パターンから抽出し
たn次元特徴からその共分散行列を作成し、その固有値
のうち大きい順にm個を選出して、これに対する固有ベ
クトルm組を初期値とすればよい。学習サイクル数とは
全学習パターンに対する学習作業を1サイクルと数えた
ときに、その作業を何回繰り返すかを指定する変数であ
る。Further, the feature selection dictionary 106 is initialized (step S202). The initial value is set by, for example, principal component analysis. That is, the covariance matrix is created from the n-dimensional features extracted from all the learning patterns, m of the eigenvalues are selected in descending order, and m sets of eigenvectors for them are used as initial values. The number of learning cycles is a variable that specifies how many times the learning work for all learning patterns is repeated when the learning work is counted as one cycle.
【0066】次に、次サイクル数を記憶するカウンタLC
を1に初期化する(ステップS203)。Next, a counter LC for storing the number of next cycles
Is initialized to 1 (step S203).
【0067】この後、学習サイクル数が規定回数を越え
ているかをチェックし(ステップS204)、越えてい
れば学習を終了し、規定回数以下の場合には以下の処理
を行う。Thereafter, it is checked whether or not the learning cycle number exceeds the specified number (step S204), and if it exceeds the specified number, the learning is ended, and if it is less than the specified number, the following processing is performed.
【0068】まず次パターン番号を記憶するカウンタPN
を1に初期化し(ステップS205)、学習パターン数
が規定数を超えたかをチェックする(ステップS20
6)。First, a counter PN that stores the next pattern number
Is initialized to 1 (step S205), and it is checked whether the number of learning patterns exceeds a prescribed number (step S20).
6).
【0069】越えていれば次サイクル数を数えるカウン
タLCを1増加させ、ステップS202に戻る。規定回数
以下であれば学習パターンを1つ読み込み、修正量を計
算して特徴選択辞書の修正を行う(ステップS20
7)。If it exceeds, the counter LC for counting the number of next cycles is incremented by 1, and the process returns to step S202. If the number is less than the specified number, one learning pattern is read, the correction amount is calculated, and the feature selection dictionary is corrected (step S20).
7).
【0070】修正が終了したら次パターンを記憶するカ
ウンタPNを1増加させ、ステップS206に戻る。When the correction is completed, the counter PN for storing the next pattern is incremented by 1, and the process returns to step S206.
【0071】これにより、各学習パターンに対して、学
習サイクル回の修正手続きが実行され、学習フェーズは
終了する。As a result, the learning cycle correction procedure is executed for each learning pattern, and the learning phase ends.
【0072】次に、学習フェーズにおける特徴選択辞書
修正について詳細に説明する。この処理は、本発明の主
たる特徴をなす処理である。Next, the correction of the feature selection dictionary in the learning phase will be described in detail. This process is a process that is the main feature of the present invention.
【0073】まず学習パターンがデータ入力部101に
入力され、特徴抽出部102に出力される。学習パター
ンはあらかじめ切り出された文字画像で、2値画像でも
多値画像でもよい。First, the learning pattern is input to the data input unit 101 and output to the feature extraction unit 102. The learning pattern is a character image cut out in advance, and may be a binary image or a multivalued image.
【0074】特徴抽出部102はデータ入力部101が
出力する学習パターンから文字認識に有効なn次元特徴
を抽出する。文字認識に有効な特徴としては、例えば局
所方向指数ヒストグラム、拡張セル特徴、外郭方向寄与
度特徴などが知られており、各特徴を用いた場合のnの
値は、概ね64〜1176次元ぐらいが良好とされてい
る。The feature extraction unit 102 extracts an n-dimensional feature effective for character recognition from the learning pattern output by the data input unit 101. As the features effective for character recognition, for example, a local direction index histogram, an expanded cell feature, an outer direction contribution degree feature, etc. are known, and the value of n when using each feature is about 64 to 1176 dimensions. It is considered good.
【0075】特徴選択部103は、特徴抽出部102が
抽出したn次元特徴を、特徴選択辞書106を参照して
m次元特徴に変換する。The feature selection unit 103 converts the n-dimensional features extracted by the feature extraction unit 102 into m-dimensional features by referring to the feature selection dictionary 106.
【0076】n次元の特徴値をそれぞれx1,x2,...,xn、
m次元の特徴値をそれぞれy1,y2,...,ym、特徴選択のた
めのm個の関数をf1,f2,...,fm、とすれば、特徴選択部
103で行う演算は以下のように記述できる。The n-dimensional feature values are x1, x2, ..., xn,
Assuming that m-dimensional feature values are y1, y2, ..., ym and m functions for feature selection are f1, f2, ..., fm, the calculation performed by the feature selection unit 103 is as follows. Can be described as
【0077】 y1=f1(x1,x2,....,xn) y2=f2(x1,x2,....,xn) ..................... ym=fm(x1,x2,....,xn)[0077] y1 = f1 (x1, x2, ...., xn) y2 = f2 (x1, x2, ...., xn) ..................... ym = fm (x1, x2, ...., xn)
【0078】また特徴選択部103の特徴選択方法を線
形変換とすれば、n次元特徴、m次元特徴をそれぞれベ
クトル
X= (x1, x2, x3, ...., xn)T、
ベクトルY=(y1, y2, y3, ...., yn)T、
特徴選択をm*n行列、
If the feature selection method of the feature selection unit 103 is a linear transformation, the n-dimensional feature and the m-dimensional feature are vector X = (x1, x2, x3, ..., xn) T , vector Y =, respectively. (y1, y2, y3, ...., yn) T , the feature selection is an m * n matrix,
【0079】で表現すると、特徴選択部103で行う演
算は、
Y=ZX
と簡潔に表すことができる。但し、ここで記号Tは転置
を表す。Expressed as, the operation performed by the feature selection unit 103 can be simply expressed as Y = ZX. However, here, the symbol T represents transposition.
【0080】詳細識別用辞書104は、予め学習してあ
る詳細識別部用の辞書であり、本発明においては変化し
ない。The detailed identification dictionary 104 is a dictionary for the detailed identification section that has been learned in advance, and does not change in the present invention.
【0081】具体例としては、図3に示すようなカテゴ
リコード情報及び参照パターン番号情報を付加したn次
元参照パターンの集合により表現することができる。As a concrete example, it can be expressed by a set of n-dimensional reference patterns to which category code information and reference pattern number information as shown in FIG. 3 are added.
【0082】図3において、カテゴリコード301は、
文字のカテゴリを示す数値であり、ここではASCIIコー
ドを用いた例を示している。この他にもJISコードやEUC
コード、SJISコードなどを用いることが可能であるが、
JISコード、EUCコード、SJISコードなどを用いる場合は
2バイトの領域を要する。In FIG. 3, the category code 301 is
This is a numerical value that indicates the category of characters, and here is an example using an ASCII code. Besides this, JIS code and EUC
It is possible to use codes, SJIS codes, etc.,
When using JIS code, EUC code, SJIS code, etc., a 2-byte area is required.
【0083】参照パターン番号302は、詳細識別用参
照パターンと、これを特徴選択して得た大分類用参照パ
ターンとを対応づけるための番号であり、参照パターン
の登録順序に従って1番から順番に番号付けすればよ
い。参照パターン番号を格納する領域の大きさは、参照
パターン数が255以下であれば1バイトで十分である
が、参照パターン数が多い場合はそれ以上の記憶領域を
用意する。The reference pattern number 302 is a number for associating the detailed identification reference pattern with the large classification reference pattern obtained by feature selection of the detailed identification reference pattern. Just number them. As for the size of the area for storing the reference pattern number, 1 byte is sufficient if the number of reference patterns is 255 or less, but if the number of reference patterns is large, a storage area larger than that is prepared.
【0084】n次元参照パターン303は特徴値を順番
に格納しており、各要素を1バイトで表現したとすると
nバイトの領域を要する。The n-dimensional reference pattern 303 stores characteristic values in order, and if each element is represented by 1 byte, an area of n bytes is required.
【0085】また図3では、参照パターンの最終位置を
示すため、最終参照パターンの直後のカテゴリコード3
04及び参照パターン番号305に値−1を設定してい
るが、別の方法としては、詳細識別用辞書104内に参
照パターン数を保持する別の記憶領域を設けてもよい。Further, in FIG. 3, the category code 3 immediately after the final reference pattern is shown to show the final position of the reference pattern.
04 and the reference pattern number 305 are set to the value -1, but as another method, another storage area for holding the number of reference patterns may be provided in the detailed identification dictionary 104.
【0086】大分類辞書作成部105は、特徴選択辞書
106を参照して、詳細識別用辞書104中の各n次元
参照パターンを特徴選択部103と同様の演算によりm
次元参照パターンに変換し対応付けて記憶する。The large classification dictionary creation unit 105 refers to the feature selection dictionary 106 and calculates each n-dimensional reference pattern in the detailed identification dictionary 104 by the same calculation as the feature selection unit 103.
It is converted into a dimensional reference pattern and stored in association with it.
【0087】詳細識別用辞書104中のn次元参照パタ
ーンと大分類辞書作成部105が記憶するm次元参照パ
ターンとは1対1に対応する。There is a one-to-one correspondence between the n-dimensional reference pattern in the detailed identification dictionary 104 and the m-dimensional reference pattern stored in the large classification dictionary creating section 105.
【0088】特徴選択部103が出力するm次元特徴
と、大分類辞書作成部105が記憶するm次元参照パタ
ーンが算出されたら、次に、特徴選択辞書修正部108
が起動される。When the m-dimensional feature output by the feature selection unit 103 and the m-dimensional reference pattern stored in the large classification dictionary creation unit 105 are calculated, the feature selection dictionary correction unit 108 is next.
Is started.
【0089】特徴選択辞書修正部108の動作について
図13を参照して説明する。図13は、簡単のため、原
特徴を2次元とし、特徴選択後の次元数を1次元とした
場合について示している。The operation of the feature selection dictionary correction unit 108 will be described with reference to FIG. For simplification, FIG. 13 shows a case where the original feature is two-dimensional and the number of dimensions after feature selection is one-dimensional.
【0090】2次元空間上に3種類のカテゴリ1307
〜1309に属するパターンが存在する。また、カテゴ
リ毎に、2つのn次元参照パターン1301〜1306
が設定され、各参照パターンは現在の特徴選択部103
によってm次元参照パターン1311〜1316に変換
される。Three types of categories 1307 in the two-dimensional space
There are patterns belonging to ˜1309. In addition, two n-dimensional reference patterns 1301 to 1306 are provided for each category.
Is set, and each reference pattern corresponds to the current feature selection unit 103.
Is converted into m-dimensional reference patterns 1311 to 1316.
【0091】またカテゴリ1307に属する学習パター
ン1310は特徴選択によって1次元学習パターン13
17に変換される。The learning pattern 1310 belonging to the category 1307 is the one-dimensional learning pattern 13 by the feature selection.
Converted to 17.
【0092】まず最初のステップとして、m次元参照パ
ターンの中からm次元特徴パターンに距離の近いパター
ンを2つ抽出する。但し、2つのうち一方の参照パター
ンは、入力された学習パターンと同一カテゴリに属する
ものであり、もし学習パターンと同じカテゴリコードを
持つm次元参照パターンが複数ある場合には、m次元特
徴との距離が最も近いものを選択する。As a first step, two patterns having a distance close to the m-dimensional characteristic pattern are extracted from the m-dimensional reference patterns. However, one of the two reference patterns belongs to the same category as the input learning pattern, and if there are a plurality of m-dimensional reference patterns having the same category code as the learning pattern, the reference pattern is regarded as an m-dimensional feature. Select the one with the closest distance.
【0093】図13では、1次元参照パターン1312
がこれに該当する。また、もう一方のm次元参照パター
ンは、入力された学習パターンと異なるカテゴリに属す
るm次元参照パターンのうち、m次元特徴に最も距離が
近いものとする。図13では1次元参照パターン131
3がこれに該当する。In FIG. 13, the one-dimensional reference pattern 1312
Corresponds to this. The other m-dimensional reference pattern has the closest distance to the m-dimensional feature among the m-dimensional reference patterns belonging to a category different from the input learning pattern. In FIG. 13, the one-dimensional reference pattern 131
3 corresponds to this.
【0094】距離は、例えばユークリッド距離の2乗、
すなわち、
d(Y, Pi) = ‖(Y − Pi) ‖2= ‖(ZX − ZRi) ‖2 The distance is, for example, the square of the Euclidean distance,
That is, d (Y, Pi) = ‖ (Y − Pi) ‖ 2 = ‖ (ZX − ZRi) ‖ 2
【0095】で定義する。但し、Piは参照パターン番号
iのm次元参照パターン、Riは参照パターン番号iのn
次元参照パターンを示す。It is defined by However, Pi is the reference pattern number
i is the m-dimensional reference pattern, Ri is the n of the reference pattern number i
A dimensional reference pattern is shown.
【0096】抽出した2つの参照パターンのうち、学習
パターンと同カテゴリに属するm次元参照パターンの番
号をc1、異カテゴリに属するm次元参照パターン番号を
c2とすれば、m次元特徴パターンと各参照パターンとの
距離は、それぞれ、
d1=d(Y, Rc1),
d2=d(Y, Rc2)
となる。Of the two extracted reference patterns, the number of the m-dimensional reference pattern belonging to the same category as the learning pattern is c1, and the number of the m-dimensional reference pattern belonging to a different category is
If c2, the distance between the m-dimensional feature pattern and each reference pattern is d1 = d (Y, Rc1), d2 = d (Y, Rc2), respectively.
【0097】さて特徴選択辞書の修正は、学習パターン
から抽出したm次元パターンと参照パターンRc1との距
離がより近くなり、学習パターンから抽出したm次元パ
ターンと参照パターンRc2との距離がより遠くなるよう
に実行される。特徴選択辞書Zの変化による距離dの最
大変化方向は、次式(2)で与えられる。In the modification of the feature selection dictionary, the distance between the m-dimensional pattern extracted from the learning pattern and the reference pattern Rc1 becomes shorter, and the distance between the m-dimensional pattern extracted from the learning pattern and the reference pattern Rc2 becomes longer. To be executed. The maximum change direction of the distance d due to the change of the feature selection dictionary Z is given by the following expression (2).
【0098】 [0098]
【0099】このため、学習パターンから抽出したm次
元パターンと参照パターンRc1との距離1318をより
近くするには、Therefore, in order to make the distance 1318 between the m-dimensional pattern extracted from the learning pattern and the reference pattern Rc1 closer,
【0100】 [0100]
【0101】なる値を、もともとの特徴選択辞書Zから
減じればよい。It suffices to subtract the value from the original feature selection dictionary Z.
【0102】一方、学習パターンから抽出したm次元パ
ターンと参照パターンRc2との距離1319をより遠く
するためには、On the other hand, in order to further increase the distance 1319 between the m-dimensional pattern extracted from the learning pattern and the reference pattern Rc2,
【0103】 [0103]
【0104】なる値を、もともとの特徴選択辞書Zに加
算すればよい。但し、ここでtは学習サイクル、ε1
(t), ε2(t)は修正量を調節するための関数である。従
って、両修正量を加算して、最終的に、以下の修正式
(5)を得る。It suffices to add such a value to the original feature selection dictionary Z. Where t is the learning cycle, ε1
(t) and ε2 (t) are functions for adjusting the correction amount. Therefore, both correction amounts are added to finally obtain the following correction formula (5).
【0105】 [0105]
【0106】この修正により、特徴選択辞書を逐次修正
すれば、既に述べたように特徴選択軸が徐々に識別に適
した方向に変化して正解カテゴリの参照パターンが大分
類部にて上位候補に上がりやすくなり、次元数mを比較
的小さくしても認識性能を高めることができる。With this correction, if the feature selection dictionary is sequentially revised, the feature selection axis gradually changes to a direction suitable for identification as already described, and the reference pattern of the correct category becomes a high-ranking candidate in the large classification unit. It is easy to go up, and the recognition performance can be improved even if the number of dimensions m is relatively small.
【0107】特徴選択辞書修正部108は、上記修正量
に基づき、特徴選択辞書106を修正する。The feature selection dictionary correction unit 108 corrects the feature selection dictionary 106 based on the correction amount.
【0108】また、上記修正式において、ε1(t), ε2
(t)の値は、1/tに比例することが理論的に望ましい
が、実応用においては、定数としても差し支えない。In the above modified equation, ε1 (t), ε2
It is theoretically desirable that the value of (t) be proportional to 1 / t, but in actual application, it may be a constant.
【0109】次に、本発明の一実施例における、認識フ
ェーズの動作について、図4を用いて説明する。図4
は、本発明の一実施例における認識フェーズのフローチ
ャートを示す図である。Next, the operation of the recognition phase in the embodiment of the present invention will be described with reference to FIG. Figure 4
FIG. 6 is a diagram showing a flowchart of a recognition phase in one embodiment of the present invention.
【0110】認識フェーズでは、初期化(ステップS4
01)、各入力データについて入力(ステップS40
2)、特徴抽出(ステップS403)、特徴選択(ステ
ップS404)、大分類(ステップS405)、詳細分
類(ステップS406)、結果出力(ステップS40
7)を順に行う。以下それぞれの処理について具体的に
説明する。In the recognition phase, initialization (step S4
01), input for each input data (step S40
2), feature extraction (step S403), feature selection (step S404), large classification (step S405), detailed classification (step S406), result output (step S40).
7) is performed in order. Each processing will be specifically described below.
【0111】まず認識に先立って初期化(ステップS4
01)が行われる。初期化では、大分類辞書作成部10
5が起動され、学習フェーズによって作成された特徴選
択辞書106と詳細識別用辞書104を参照して、m次
元参照パターンを作成し記憶する。First, initialization is performed prior to recognition (step S4).
01) is performed. In the initialization, the large classification dictionary creation unit 10
5 is activated, and the m-dimensional reference pattern is created and stored by referring to the feature selection dictionary 106 and the detailed identification dictionary 104 created in the learning phase.
【0112】学習フェーズでは学習パターン毎に大分類
辞書作成部105が起動されたが、認識フェーズでは初
期化にて一度だけ起動される。よって、認識中大分類用
参照パターンは変化しない。In the learning phase, the large classification dictionary creating unit 105 is activated for each learning pattern, but in the recognition phase it is activated only once during initialization. Therefore, the reference pattern for recognition and large classification does not change.
【0113】入力ステップ(ステップS402)では、
認識対象のパターンを1パターンずつ読み込む。At the input step (step S402),
The patterns to be recognized are read one by one.
【0114】特徴抽出部102における特徴抽出ステッ
プ(ステップS403)、及び、特徴選択部103にお
ける特徴選択ステップ(ステップS404)が実行され
る。これらの処理内容は、入力データが学習パターンで
はなく、識別対象パターンであることを除いて、学習フ
ェーズと全く変わらない。The feature extracting step (step S403) in the feature extracting section 102 and the feature selecting step (step S404) in the feature selecting section 103 are executed. These processing contents are completely the same as the learning phase except that the input data is not the learning pattern but the identification target pattern.
【0115】続いて大分類ステップ(ステップ405)
は、大分類部107により、実行される。大分類部10
7は、大分類用辞書作成部105が抽出したm次元参照
パターンの中からm次元特徴パターンに距離が近いもの
を上位K個だけ抽出し、その参照パターン番号を詳細識
別部109に出力する。この際、抽出されたK個の参照
パターンが属するカテゴリは互いに同一でも異なってい
てもかまわない。Then, a large classification step (step 405)
Is executed by the general classification unit 107. Major classification 10
Reference numeral 7 extracts only the upper K pieces of the m-dimensional reference patterns that are close to the m-dimensional feature pattern from the m-dimensional reference patterns extracted by the large classification dictionary creating section 105, and outputs the reference pattern numbers to the detailed identifying section 109. At this time, the categories to which the extracted K reference patterns belong may be the same or different.
【0116】詳細識別部109は、大分類部107が出
力する参照パターン番号に対応するn次元参照パターン
を詳細識別用辞書104の中から抽出して、その中から
特徴抽出部102が出力するn次元特徴パターンに近い
距離のものを出力する。距離はユークリッド距離などで
定義すればよい。The detailed identification section 109 extracts the n-dimensional reference pattern corresponding to the reference pattern number output from the large classification section 107 from the detailed identification dictionary 104, and the feature extraction section 102 outputs n out of the n-dimensional reference patterns. Outputs a distance close to the dimensional feature pattern. The distance may be defined by Euclidean distance.
【0117】認識結果出力部110は、詳細識別部10
9が出力する認識結果を加工して、メモリや画面などに
出力する。The recognition result output unit 110 includes a detailed identification unit 10
The recognition result output from 9 is processed and output to a memory or a screen.
【0118】以上の構成により、実際に構築した手書英
数字カナ認識装置の認識実験結果について示す。The recognition experiment results of the handwritten alphanumeric kana recognition device actually constructed by the above configuration will be shown.
【0119】実験に用いた認識対象のカテゴリ数は82
種、入力パターン数(評価パターン数)は約8万5千パ
ターン、特徴は輪郭線の傾きを局所領域毎/方向毎に集
約した特徴(400次元)、詳細識別用辞書は一般化学
習ベクトル量子化法により各カテゴリ毎に10個の参照
ベクトルを作成し、マルチテンプレート辞書を構築し
た。The number of categories to be recognized used in the experiment is 82.
Seeds, the number of input patterns (the number of evaluation patterns) is about 85,000 patterns, the features are the features (400 dimensions) in which the inclination of the contour line is aggregated for each local region / direction, and the detailed identification dictionary is a generalized learning vector quantum. 10 reference vectors were created for each category by the optimization method, and a multi-template dictionary was constructed.
【0120】大分類部、詳細識別部で用いた識別アルゴ
リズムは共にユークリッド距離に基づく最近傍識別アル
ゴリズムである。The classification algorithms used in the large classification section and the detailed classification section are both the nearest neighbor classification algorithm based on the Euclidean distance.
【0121】図5に、実験結果の一例を示す。図5に
は、4つの異なる認識手順による認識率、及び処理時間
が示されている。FIG. 5 shows an example of the experimental results. FIG. 5 shows recognition rates and processing times according to four different recognition procedures.
【0122】・1段目は、大分類を行わずに400次元
特徴パターンを用いて直接識別を行った場合の認識性能
を示し、
・2段目は、400次元の特徴パターンを4次元毎に集
約し100次元の特徴パターンを構成して大分類を行
い、400次元特徴を用いて詳細分類を行った場合の認
識性能を示し、
・3段目は、400次元の特徴パターンから主成分分析
により15次元の特徴パターンを選択して大分類を行
い、400次元特徴を用いて詳細分類を行った場合の認
識性能を示している。The first stage shows the recognition performance when the 400-dimensional feature pattern is directly identified without performing the major classification, and the second stage shows the 400-dimensional feature pattern for every four dimensions. The recognition performance in the case where the 100-dimensional feature patterns are aggregated to perform the large classification and the 400-dimensional features are used for the detailed classification is shown. The recognition performance is shown when 15-dimensional feature patterns are selected for major classification and 400-dimensional features are used for detailed classification.
【0123】・4段目は、本発明に基づいて、特徴選択
辞書を学習して15次元特徴空間にて大分類を行った
後、400次元特徴空間において詳細識別を行った場合
の性能を示す。The fourth row shows the performance when the feature selection dictionary is learned and the large classification is performed in the 15-dimensional feature space and then the detailed identification is performed in the 400-dimensional feature space based on the present invention. .
【0124】認識装置では、400次元特徴パターンを
直接用いた識別時と、ほぼ同等の認識精度を維持し、且
つ認識時間が1/9程度に低減されていることがわか
る。It can be seen that in the recognition device, the recognition accuracy is almost the same as that in the recognition using the 400-dimensional feature pattern directly, and the recognition time is reduced to about 1/9.
【0125】一方、3段目に示した主成分分析を用いて
次元圧縮した場合は性能が1段目の方法よりも低下して
いることがわかる。On the other hand, it can be seen that the performance is lower than that of the method in the first step when dimension compression is performed using the principal component analysis shown in the third step.
【0126】追加実験の結果、主成分分析を用いた場合
は、少なくとも25次元以上の特徴を選択しないと同等
の認識性能を実現できなかった。As a result of the additional experiment, in the case of using the principal component analysis, the equivalent recognition performance could not be realized unless the features of at least 25 dimensions were selected.
【0127】また本発明は、2段目に示した100次元
特徴で大分類する手法と比較して、認識率及び認識時間
の両面において優位であることも、図5からわかる。It can also be seen from FIG. 5 that the present invention is superior to both the recognition rate and the recognition time in comparison with the method of roughly classifying 100-dimensional features shown in the second row.
【0128】図6は、本発明の一実施例による認識装置
において、特徴選択辞書の学習フェーズにおける学習サ
イクル数と認識性能の関係を示す図である。FIG. 6 is a diagram showing the relationship between the number of learning cycles and the recognition performance in the learning phase of the feature selection dictionary in the recognition apparatus according to the embodiment of the present invention.
【0129】特徴選択辞書の初期値は、主成分分析によ
り作成した。The initial value of the feature selection dictionary was created by principal component analysis.
【0130】図6から、学習を行うことによって認識性
能が徐々に向上し、学習サイクル数12回程度で大分類
無しの場合とほぼ同程度の認識性能を実現していること
がわかる。It can be seen from FIG. 6 that the recognition performance is gradually improved by learning, and the recognition performance is achieved at about 12 learning cycles, which is almost the same as that in the case of no major classification.
【0131】以上の実施例では、大分類部、大分類辞書
作成部、詳細分類部とも、距離尺度によって分類/識別
処理を行う例を示したが、これらは、類似度を尺度とし
てもよい。In the above embodiments, the large classifying section, the large class dictionary creating section, and the detailed classifying section have shown an example in which the classification / identification processing is performed by the distance measure, but these may use the degree of similarity as a measure.
【0132】大分類部、及び大分類辞書作成部が類似度
に基づく場合には、同様に、類似度を特徴選択辞書Zで
偏微分した値を、ε1(t), ε2(t)倍した後、これをもと
の特徴選択辞書Zに加算/減算することにより、類似度
をより増大/減少させることができる。When the large classification unit and the large classification dictionary creating unit are based on the similarity, similarly, the value obtained by partially differentiating the similarity with the feature selection dictionary Z is multiplied by ε1 (t) and ε2 (t). After that, by adding / subtracting this to / from the original feature selection dictionary Z, the similarity can be further increased / decreased.
【0133】次に本発明の第2の実施例について、図7
を参照して説明する。本発明の第2の実施例は、前記実
施例と相違して、特徴選択辞書修正部708が、更に詳
細識別部709の出力も参照して修正量を算出する。Next, the second embodiment of the present invention will be described with reference to FIG.
Will be described with reference to. In the second embodiment of the present invention, unlike the above embodiment, the feature selection dictionary correction unit 708 further refers to the output of the detailed identification unit 709 to calculate the correction amount.
【0134】本発明の第2の実施例について、図12を
参照して、説明する。n次元参照パターン1201、1
202は、カテゴリDに属する参照パターンを示し、n
次元参照パターン1203、1204はカテゴリEに属
する参照パターンを示し、n次元参照パターン120
5、1206はカテゴリFに属する参照パターンを示
す。The second embodiment of the present invention will be described with reference to FIG. n-dimensional reference patterns 1201, 1
Reference numeral 202 denotes a reference pattern belonging to category D, n
The dimensional reference patterns 1203 and 1204 indicate reference patterns belonging to the category E, and the n-dimensional reference pattern 120
Reference numerals 5 and 1206 represent reference patterns belonging to the category F.
【0135】また、これを現在の特徴選択辞書によって
特徴軸1208上に投影したm次元参照パターンをそれ
ぞれm次元参照パターン1211〜1216とする。Further, the m-dimensional reference patterns projected on the feature axis 1208 by the current feature selection dictionary are set as m-dimensional reference patterns 1211 to 1216, respectively.
【0136】ここで、学習パターンから抽出したn次元
特徴をn次元特徴1207とすると、前記第1の実施例
では、1次元参照パターン1212及び1次元参照パタ
ーン1213を抽出し、辞書の修正量を決定している。Assuming that the n-dimensional feature extracted from the learning pattern is the n-dimensional feature 1207, in the first embodiment, the one-dimensional reference pattern 1212 and the one-dimensional reference pattern 1213 are extracted and the correction amount of the dictionary is calculated. I have decided.
【0137】しかしながら、詳細識別用辞書104が、
1つのカテゴリに対し複数の参照パターンを含むマルチ
テンプレート辞書である場合、n次元特徴空間において
入力パターンから抽出したn次元特徴の最近傍にある正
解カテゴリの参照パターンが、m次元特徴空間において
入力パターンから得たm次元特徴の最近傍にある正解カ
テゴリの参照パターンと対応するとは限らない。However, the detailed identification dictionary 104 is
In the case of a multi-template dictionary including a plurality of reference patterns for one category, the reference pattern of the correct category closest to the n-dimensional feature extracted from the input pattern in the n-dimensional feature space is the input pattern in the m-dimensional feature space. It does not always correspond to the reference pattern of the correct answer category that is closest to the m-dimensional feature obtained from.
【0138】実際に、図12に示す例の場合、2次元特
徴空間において、n次元特徴1207の最近傍にあるn
次元参照パターン1201は、1次元特徴1217の最
近傍にある1次元参照パターン1212とは対応しな
い。Actually, in the case of the example shown in FIG. 12, n which is the closest to the n-dimensional feature 1207 in the two-dimensional feature space.
The one-dimensional reference pattern 1201 does not correspond to the one-dimensional reference pattern 1212 that is closest to the one-dimensional feature 1217.
【0139】そこで、詳細識別時に最も入力パターンと
の距離が近い参照パターンがより大分類の候補として選
出されるようにするためには、1次元参照パターン12
12とm次元特徴1217が近づくように特徴選択辞書
706を修正するのでなく、1次元参照パターン121
1と、m次元特徴1217とが近づくように、特徴選択
辞書706を修正すればよい。Therefore, in order to select the reference pattern closest to the input pattern at the time of the detailed identification as a candidate for the larger classification, the one-dimensional reference pattern 12
12 does not correct the feature selection dictionary 706 so that the m-dimensional feature 1217 and the 12-dimensional feature 1217 come close to each other.
The feature selection dictionary 706 may be modified so that 1 and the m-dimensional feature 1217 come close to each other.
【0140】そこで、n次元特徴空間において、入力パ
ターンと同じカテゴリに属し、且つ入力パターンから得
たn次元特徴ベクトルに最も距離が近いn次元参照パタ
ーンの番号をc1´とすれば、特徴選択辞書修正部707
における修正手続きを、次式(6)と定義することがで
きる。Therefore, if the number of the n-dimensional reference pattern that belongs to the same category as the input pattern in the n-dimensional feature space and is closest to the n-dimensional feature vector obtained from the input pattern is c1 ', the feature selection dictionary Correction unit 707
The correction procedure in can be defined by the following equation (6).
【0141】 [0141]
【0142】図11は、本発明の第2の実施例の処理手
順を示すフローチャートである。図11を参照すると、
本発明の第2の実施例においては、最初に、詳細識別部
7−9による参照パターンRc1´の抽出を、全学習パタ
ーンに対して行う(ステップS1102)。このとき、
詳細識別部709は、大分類部の出力とは無関係に動作
し、学習パターンと同カテゴリに属する詳細識別用辞書
704中の全参照パターンから、最も距離が近いものを
抽出し記憶する。FIG. 11 is a flow chart showing the processing procedure of the second embodiment of the present invention. Referring to FIG.
In the second embodiment of the present invention, first, the reference pattern Rc1 ′ is extracted by the detailed identification section 7-9 for all learning patterns (step S1102). At this time,
The detailed identification section 709 operates independently of the output of the large classification section, and extracts and stores the closest one of all reference patterns in the detailed identification dictionary 704 belonging to the same category as the learning pattern.
【0143】これにより、全学習パターンに対して正解
カテゴリの参照パターン番号c1´が抽出できるので、以
降の修正ステップ(ステップS1107)では、異カテ
ゴリの参照パターン番号c2を決定すれば、前述の修正を
行うことが可能となる。As a result, the reference pattern number c1 'of the correct answer category can be extracted for all the learning patterns. Therefore, in the subsequent correction step (step S1107), if the reference pattern number c2 of a different category is determined, the correction described above is performed. It becomes possible to do.
【0144】図8は、本発明の第2の実施例に従って構
成された認識装置による認識性能及び認識時間を示す図
である。なお、実験条件は、図6に示した場合と同じで
ある。FIG. 8 is a diagram showing the recognition performance and the recognition time by the recognition device constructed according to the second embodiment of the present invention. The experimental conditions are the same as those shown in FIG.
【0145】図8から、本発明の第2の実施例が、前記
第1の実施例と同等の認識性能を達成していることがわ
かる。It can be seen from FIG. 8 that the second embodiment of the present invention achieves the recognition performance equivalent to that of the first embodiment.
【0146】[0146]
【発明の効果】以上説明したように本発明によれば、主
成分分析等によって生成した特徴選択辞書を用いて大分
類を行う認識手法に比べ、高い認識性能を実現すること
ができる、という効果を奏する。As described above, according to the present invention, it is possible to realize higher recognition performance as compared with the recognition method in which large classification is performed using a feature selection dictionary generated by principal component analysis or the like. Play.
【0147】その理由は、本発明においては、正解カテ
ゴリに対応する参照ベクトルが大分類の候補として選択
されやすくなるように特徴選択辞書を逐次学習する手段
を具備しているためである。The reason for this is that the present invention is provided with means for sequentially learning the feature selection dictionary so that the reference vector corresponding to the correct answer category can be easily selected as a candidate for large classification.
【0148】また、本発明によれば、別の捉え方をすれ
ば、主成分分析等によって生成した特徴選択辞書を用い
て大分類を行う認識手法よりも、大分類に用いる特徴の
次元数をより少なくしても同等の認識性能を実現するこ
とができ、認識速度を向上することができる、という効
果を奏する。In addition, according to the present invention, from a different point of view, the dimension number of the features used for the large classification is larger than that of the recognition method for performing the large classification using the feature selection dictionary generated by the principal component analysis or the like. Even if the number is smaller, the same recognition performance can be realized, and the recognition speed can be improved.
【図1】本発明の第1の実施例の構成を示す図である。FIG. 1 is a diagram showing a configuration of a first exemplary embodiment of the present invention.
【図2】本発明の第1の実施例における学習フェーズの
処理手順を示す流れ図である。FIG. 2 is a flowchart showing a processing procedure of a learning phase in the first embodiment of the present invention.
【図3】本発明の第1の実施例における詳細識別用辞書
の具体例を示す図である。FIG. 3 is a diagram showing a specific example of a detailed identification dictionary in the first exemplary embodiment of the present invention.
【図4】本発明の第1の実施例における認識フェーズの
処理手順を示す流れ図である。FIG. 4 is a flow chart showing a processing procedure of a recognition phase in the first embodiment of the present invention.
【図5】本発明の第1の実施例を適用した認識装置によ
る手書英数字カナの認識実験結果を示す図である。FIG. 5 is a diagram showing a recognition experiment result of handwritten alphanumeric kana by the recognition device to which the first embodiment of the present invention is applied.
【図6】本発明の第1の実施例を適用した認識装置にお
ける学習回数と認識性能の関係を示す図である。FIG. 6 is a diagram showing a relationship between the number of times of learning and recognition performance in the recognition device to which the first embodiment of the present invention is applied.
【図7】本発明の第2の実施例の構成を示す図である。FIG. 7 is a diagram showing a configuration of a second exemplary embodiment of the present invention.
【図8】本発明の第2の実施例を適用した認識装置によ
る手書英数字カナの認識実験結果を示す図である。FIG. 8 is a diagram showing a recognition experiment result of handwritten alphanumeric kana by a recognition device to which the second embodiment of the present invention is applied.
【図9】本発明を説明するための図であり、特徴選択辞
書の修正により大分類の候補が変わる様子を説明するた
めの図である。FIG. 9 is a diagram for explaining the present invention, and is a diagram for explaining the manner in which candidates of a large classification are changed by modifying the feature selection dictionary.
【図10】2次元空間における3つのカテゴリに属する
データの分布例と、これに対する主成分分析により得ら
れる第1主軸の例を示す図である。FIG. 10 is a diagram showing an example of distribution of data belonging to three categories in a two-dimensional space and an example of a first principal axis obtained by principal component analysis for the data.
【図11】本発明の第2の実施例における学習フェーズ
の処理手順を示す流れ図である。FIG. 11 is a flow chart showing a processing procedure of a learning phase in the second embodiment of the present invention.
【図12】本発明の第2の実施例を説明するための図で
あり、特徴選択辞書の修正に用いられる参照パターンを
示す図である。FIG. 12 is a diagram for explaining the second embodiment of the present invention and is a diagram showing a reference pattern used for correcting a feature selection dictionary.
【図13】本発明の実施例における特徴選択辞書の修正
を説明するための図である。FIG. 13 is a diagram for explaining correction of the feature selection dictionary in the embodiment of the present invention.
101 データ入力部
102 特徴抽出部
103 特徴選択部
104 詳細識別用辞書
105 大分類辞書作成部
106 特徴選択辞書
107 大分類部
108 特徴選択辞書修正部
109 詳細識別部
110 認識結果出力部
301 参照ベクトル番号
302 カテゴリコード
303 n次元特徴
601 第1の実施例による認識性能と学習回数の関係
602 大分類を行わない場合の認識性能
701 データ入力部
702 特徴抽出部
703 特徴選択部
704 詳細識別用辞書
705 大分類辞書作成部
706 特徴選択辞書
707 大分類部
708 特徴選択辞書修正部
709 詳細識別部
710 認識結果出力部
901 学習パターンから抽出した2次元特徴
902 現在の特徴選択辞書により定まる特徴軸
903 特徴選択辞書修正後の特徴軸
904 現在の特徴選択辞書によって得られるカテゴリ
Aの1次元参照パターン
905 現在の特徴選択辞書によって得られるカテゴリ
Bの1次元参照パターン
906 現在の特徴選択辞書によって得られるカテゴリ
Cの1次元参照パターン
907 特徴選択辞書修正後のカテゴリAの1次元参照
パターン
908 特徴選択辞書修正後の1次元特徴
909 特徴選択辞書修正後のカテゴリBの1次元参照
パターン
910 現在の特徴選択辞書によって得られる1次元特
徴
1001 2次元特徴空間におけるカテゴリAの分布範
囲
1002 2次元特徴空間におけるカテゴリBの分布範
囲
1003 2次元特徴空間におけるカテゴリCの分布範
囲
1004 現在の特徴選択辞書によって定まる特徴軸
1005 学習パターンから抽出した2次元特徴
1006 特徴選択辞書に基づいて得られるカテゴリA
の1次元参照パターン
1007 学習パターンから抽出した2次元特徴を特徴
選択辞書に基づいて変換し得た1次元特徴
1008 特徴選択辞書に基づいて得られるカテゴリB
の1次元参照パターン
1009 特徴選択辞書に基づいて得られるカテゴリC
の1次元参照パターン
1201、1202 カテゴリDの2次元参照パターン
1203、1204 カテゴリEの2次元参照パターン
1205、1206 カテゴリFの2次元参照パターン
1207 学習パターンから抽出した2次元特徴
1208 特徴選択辞書によって定められる特徴軸
1211、1212 カテゴリDの2次元参照パターン
を特徴選択辞書に基づいて特徴軸に投影して得た1次元
参照パターン
1213、1214 カテゴリEの2次元参照パターン
を特徴選択辞書に基づいて特徴軸に投影して得た1次元
参照パターン
1215、1216 カテゴリFの2次元参照パターン
を特徴選択辞書に基づいて特徴軸に投影して得た1次元
参照パターン
1301、1302 カテゴリ1307に属する2つの
n次元参照パターン
1303、1304 カテゴリ1308に属する2つの
n次元参照パターン
1305、1306 カテゴリ1309に属する2つの
n次元参照パターン
1307、1308、1309 カテゴリ
1310 学習パターン(2次元)
1311、1312 n次元参照パターン1301、1
302を特徴選択して得たm次元参照パターン
1313、1314 n次元参照パターン1303、1
304を特徴選択して得たm次元参照パターン
1315、1316 n次元参照パターン1305、1
306を特徴選択して得たm次元参照パターン
1317 学習パターン1310を特徴選択して得た1
次元学習パターン
1318 1次元学習パターン1317と参照パターン
RC1との距離
1319 1次元学習パターン1317と参照パターン
RC2との距離101 data input unit 102 feature extraction unit 103 feature selection unit 104 detailed identification dictionary 105 large classification dictionary creation unit 106 feature selection dictionary 107 large classification unit 108 feature selection dictionary correction unit 109 detailed identification unit 110 recognition result output unit 301 reference vector number 302 Category code 303 n-dimensional feature 601 Relationship between recognition performance and learning count according to the first embodiment 602 Recognition performance without major classification 701 Data input unit 702 Feature extraction unit 703 Feature selection unit 704 Detailed identification dictionary 705 Large Classification dictionary creation unit 706 Feature selection dictionary 707 Large classification unit 708 Feature selection dictionary correction unit 709 Detail identification unit 710 Recognition result output unit 901 Two-dimensional feature 902 extracted from learning pattern Feature axis 903 Determined by current feature selection dictionary 903 Feature selection dictionary Modified feature axis 904 Current feature selector One-dimensional reference pattern 905 of category A obtained by the one-dimensional reference pattern 906 of category B obtained by the current feature selection dictionary One-dimensional reference pattern 907 of category C obtained by the current feature selection dictionary 907 1-dimensional reference pattern 908 of A. 1-dimensional feature 909 after correction of the feature selection dictionary 1-dimensional reference pattern 910 of category B after correction of the feature selection dictionary 1-dimensional feature 1001 obtained by the current feature selection dictionary 1001 Category A in the 2-dimensional feature space Distribution range 1002 of category B in the two-dimensional feature space 1003 distribution range of category C in the two-dimensional feature space 1004 feature axis 1005 determined by the current feature selection dictionary two-dimensional feature 1006 extracted from the learning pattern based on the feature selection dictionary Obtained Category A
One-dimensional reference pattern 1007 of 1) One-dimensional feature 1008 obtained by converting the two-dimensional features extracted from the learning pattern based on the feature selection dictionary Category B obtained based on the feature selection dictionary
One-dimensional reference pattern 1009 of category C obtained based on the feature selection dictionary
1D reference patterns 1201 and 1202 Category D 2D reference patterns 1203 and 1204 Category E 2D reference patterns 1205 and 1206 Category F 2D reference patterns 1207 2D features 1208 extracted from learning patterns Defined by a feature selection dictionary 1D reference patterns 1213, 1214 obtained by projecting two-dimensional reference patterns of feature axes 1211, 1212 category D onto the feature axis based on the feature selection dictionary Two n belonging to the one-dimensional reference patterns 1301, 1302 category 1307 obtained by projecting the two-dimensional reference patterns of the one-dimensional reference patterns 1215, 1216 category F obtained by projecting onto the axis on the feature axis based on the feature selection dictionary. Dimensional reference patterns 1303, 13 4 two n two n-dimensional reference patterns 1307,1308,1309 Category 1310 learning pattern (two-dimensional) belonging to the dimension reference pattern 1305 and 1306 Category 1309 1311 and 1312 n-dimensional reference patterns belonging to the category 1308 1301,1
M-dimensional reference patterns 1313 and 1314 obtained by feature selection of 302 n-dimensional reference patterns 1303 and 1
M-dimensional reference patterns 1315 and 1316 obtained by selecting 304 as a feature n-dimensional reference patterns 1305 and 1316
M-dimensional reference pattern 1317 obtained by selecting features of 306 1 obtained by selecting learning patterns 1310
Dimensional learning pattern 1318 Distance between one-dimensional learning pattern 1317 and reference pattern R C1 1319 Distance between one-dimensional learning pattern 1317 and reference pattern R C2
───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.7,DB名) G06T 7/00 G06K 9/62 - 9/72 G10L 15/06 ─────────────────────────────────────────────────── ─── Continuation of front page (58) Fields surveyed (Int.Cl. 7 , DB name) G06T 7/00 G06K 9/62-9/72 G10L 15/06
Claims (16)
特徴を抽出する特徴抽出部と、 前記1次特徴をm次元(但し、m<n)の特徴に変換す
る関数を記憶する特徴選択辞書と、 前記特徴選択辞書に記憶される関数に基づき、2次特徴
として前記1次特徴からm次元の特徴を抽出する特徴選
択部と、 前記1次特徴に基づく認識用に予め作成されている詳細
識別用参照パターンを記憶する詳細識別用辞書と、 前記詳細識別用辞書中に含まれる各々の詳細識別用参照
パターンを、前記特徴選択辞書に記憶されている関数に
基づいて、m次元の大分類用参照パターンに変換し記憶
する大分類辞書作成部と、 前記大分類用参照パターンの中から前記特徴選択部で抽
出した2次特徴との距離が近い上位の所定個数(K個)
の大分類用参照パターンを抽出し、これらに対応する前
記詳細識別用参照パターンを特定する情報を出力する大
分類部と、 前記大分類部の出力情報によって特定される所定個数
(K個)の前記詳細識別用参照パターンと、前記特徴抽
出部が抽出した1次特徴と、を照合して、照合結果を出
力する詳細識別部と、 前記照合結果を加工して記憶装置又は出力装置に出力す
る認識結果出力部と、 前記特徴選択辞書に記憶される関数の学習時には、前記
大分類用参照パターン中に含まれる参照パターンのう
ち、学習パターンと同一のカテゴリ(以下、「正解カテ
ゴリ」という)に属し、且つ、学習パターンから抽出し
た前記2次特徴との距離が最も近い大分類用参照パター
ンを参照パターン(A)として抽出し、 さらに前記大分類用参照パターン中に含まれる参照パタ
ーンのうち、学習パターンと同一でないカテゴリ(以
下、「不正解カテゴリ」という)に属し、且つ前記2次
特徴との距離が最も近い大分類用参照パターンを参照パ
ターン(B)として抽出した後、前記2次特徴と前記参
照パターン(A)との距離がより近づき、更に前記2次
特徴と前記参照パターン(B)との距離がより遠ざかる
ように、前記特徴選択関数を修正する特徴選択辞書修正
部と、 を備える、ことを特徴とするパターン認識装置。1. A feature extraction unit for extracting n-dimensional features as primary features from an input pattern, and a feature selection dictionary storing a function for converting the primary features into m-dimensional (where m <n) features. A feature selection unit that extracts m-dimensional features from the primary features as secondary features based on a function stored in the feature selection dictionary; and details created in advance for recognition based on the primary features. A detailed identification dictionary storing identification reference patterns, and each detailed identification reference pattern included in the detailed identification dictionary are classified into m-dimensional large categories based on a function stored in the feature selection dictionary. Classification dictionary creating unit for converting and storing the reference patterns for use, and a predetermined number of upper ranks (K) that are close to the secondary features extracted from the feature selecting unit from the reference patterns for large classification
Of the large-classification reference patterns and outputs information for specifying the detailed identification reference patterns corresponding to the large-classification reference patterns; and a predetermined number (K) specified by the output information of the large-classification unit. A detailed identification unit that collates the detailed identification reference pattern and the primary feature extracted by the feature extraction unit and outputs a collation result; and a detailed identification unit that processes the collation result and outputs the result to a storage device or an output device. At the time of learning the recognition result output unit and the function stored in the feature selection dictionary, among the reference patterns included in the large classification reference pattern, the same category as the learning pattern (hereinafter, referred to as “correct category”) The large classification reference pattern that belongs to the learning pattern and has the shortest distance to the secondary feature is extracted as a reference pattern (A). Of the reference patterns included in the reference pattern, a reference pattern for large classification that belongs to a category that is not the same as the learning pattern (hereinafter, referred to as “incorrect solution category”) and has the closest distance to the secondary feature is set as the reference pattern (B). After the extraction, the feature selection function is modified so that the secondary feature and the reference pattern (A) are closer to each other, and the secondary feature and the reference pattern (B) are further away from each other. A pattern recognition device comprising: a feature selection dictionary correction unit;
特徴を抽出する特徴抽出部と、 前記1次特徴をm次元(但し、m<n)の特徴に変換す
る関数を記憶する特徴選択辞書と、 前記特徴選択辞書に記憶される関数に基づき、2次特徴
として前記1次特徴からm次元の特徴を抽出する特徴選
択部と、 前記1次特徴に基づく認識用に予め作成されている詳細
識別用参照パターンを記憶する詳細識別用辞書と、 前記詳細識別用辞書中に含まれる各々の詳細識別用参照
パターンを前記特徴選択辞書に記憶されている関数に基
づいてm次元の大分類用参照パターンに変換し記憶する
大分類辞書作成部と、 前記大分類用参照パターンの中から前記特徴選択部で抽
出した2次特徴との類似度が大きい上位所定個数(K
個)の大分類用参照パターンを抽出し、これらに対応す
る前記詳細識別用参照パターンを特定する情報を出力す
る大分類部と、 前記大分類部の出力情報によって特定される所定個数
(K個)の前記詳細識別用参照パターンと前記特徴抽出
部が抽出した1次特徴とを照合して、照合結果を出力す
る詳細識別部と、 前記詳細識別部の出力を加工して出力する認識結果出力
部と、 前記特徴選択辞書に記憶される特徴選択関数の学習時に
は、前記大分類用参照パターン中に含まれる正解カテゴ
リの参照パターンのうち、学習パターンから抽出した前
記2次特徴との類似度が最も高い大分類用参照パターン
を参照パターン(A)として抽出し、 さらに前記大分類用参照パターン中に含まれる不正解カ
テゴリの参照パターンのうち、前記2次特徴との類似度
が最も高い大分類用参照パターンを参照パターン(B)
として抽出した後、前記2次特徴と前記参照パターン
(A)との類似度より増大し、更に前記2次特徴と前記
参照パターン(B)との類似度がより減少するように、
前記特徴選択関数を修正する特徴選択辞書修正部と、 を備える、ことを、特徴とするパターン認識装置。2. A feature extraction unit that extracts n-dimensional features as primary features from an input pattern, and a feature selection dictionary that stores a function that converts the primary features into m-dimensional (where m <n) features. A feature selection unit that extracts m-dimensional features from the primary features as secondary features based on a function stored in the feature selection dictionary; and details created in advance for recognition based on the primary features. A detailed identification dictionary storing identification reference patterns, and an m-dimensional large classification reference for each detailed identification reference pattern included in the detailed identification dictionary based on a function stored in the feature selection dictionary. A large predetermined number (K) having a large degree of similarity between the large classification dictionary creating unit which converts the pattern into a pattern and stores the pattern and the secondary feature extracted by the feature selecting unit from the large classification reference pattern.
A) a large classification reference pattern for extracting the large classification reference patterns and outputting information for specifying the detailed identification reference patterns corresponding thereto; and a predetermined number (K) specified by the output information of the large classification part. ) The detailed identification reference pattern for collating the detailed identification reference pattern with the primary feature extracted by the feature extraction unit, and a detailed identification unit for outputting a collation result, and a recognition result output for processing and outputting the output of the detailed identification unit And a feature selection function stored in the feature selection dictionary, the similarity between the secondary feature extracted from the learning pattern among the reference patterns of the correct category included in the large classification reference pattern is The highest reference pattern for large classification is extracted as a reference pattern (A), and the reference pattern of the incorrect category included in the reference pattern for large classification is classified as the secondary feature. The reference pattern for the large classification with the highest similarity is the reference pattern (B)
After the extraction, the similarity between the secondary feature and the reference pattern (A) is increased, and the similarity between the secondary feature and the reference pattern (B) is further decreased.
And a feature selection dictionary modifying unit that modifies the feature selecting function.
抽出する特徴抽出部と、 前記n次元特徴ベクトルからm次元特徴ベクトル(但
し、m<n)を選択するための情報を格納する特徴選択
辞書と、 前記特徴選択辞書を参照して前記特徴抽出部が抽出した
n次元特徴ベクトルから大分類用のm次元特徴ベクトル
を抽出する特徴選択部と、 n次元参照ベクトルの集合からなる詳細識別用辞書と、 前記詳細識別用辞書を前記特徴選択辞書に基づいてm次
元参照ベクトルの集合を抽出する大分類辞書作成部と、 前記特徴選択部で抽出したm次元特徴ベクトルと前記大
分類辞書作成部が抽出したm次元参照ベクトルとを照合
し、前記m次元特徴ベクトルとの距離が近い順に上位K
個の前記m次元参照ベクトルの番号を候補参照ベクトル
番号として抽出する大分類部と、 前記大分類部にて抽出した候補参照ベクトル番号に対応
する前記詳細識別用辞書中の所定個数(K個)のn次元
参照ベクトルと前記特徴抽出部にて抽出したn次元特徴
ベクトルとを照合して照合結果を出力する詳細識別部
と、 前記詳細識別部の出力結果に基づいて認識結果を出力す
る認識結果出力部と、 特徴選択辞書の学習時には、前記m次元参照ベクトル中
に含まれる正解カテゴリの参照ベクトルのうち、学習パ
ターンから抽出した前記m次元特徴ベクトルとの距離が
最も近いm次元参照ベクトルを参照ベクトル(A)とし
て抽出し、さらに前記m次元参照ベクトル中に含まれる
不正解カテゴリの参照ベクトルのうち、前記m次元特徴
ベクトルとの距離が最も近いm次元参照ベクトルを参照
ベクトル(B)として抽出した後、前記m次元特徴ベク
トルと前記参照ベクトル(A)との距離がより近づき、
更に前記m次元特徴ベクトルと前記参照ベクトル(B)
との距離がより遠ざかるように、前記特徴選択辞書を修
正する特徴選択辞書修正部と、 を備える、ことを特徴とするパターン認識装置。3. A feature extraction unit that extracts an n-dimensional feature vector from an input pattern, and a feature selection dictionary that stores information for selecting an m-dimensional feature vector (where m <n) from the n-dimensional feature vector. A feature selection unit for extracting an m-dimensional feature vector for large classification from the n-dimensional feature vector extracted by the feature extraction unit with reference to the feature selection dictionary; and a detailed identification dictionary including a set of n-dimensional reference vectors. A large classification dictionary creating unit that extracts a set of m-dimensional reference vectors from the detailed identification dictionary based on the feature selecting dictionary; an m-dimensional feature vector extracted by the feature selecting unit and the large classification dictionary creating unit. The extracted m-dimensional reference vector is collated, and the higher order K is ranked in order of decreasing distance from the m-dimensional feature vector.
A large classification unit that extracts the numbers of the m-dimensional reference vectors as candidate reference vector numbers, and a predetermined number (K) in the detailed identification dictionary corresponding to the candidate reference vector numbers extracted by the large classification unit A detailed identification unit for collating the n-dimensional reference vector of n with the n-dimensional feature vector extracted by the feature extraction unit and outputting a collation result; and a recognition result for outputting a recognition result based on the output result of the detailed discrimination unit. At the time of learning the output unit and the feature selection dictionary, refer to the m-dimensional reference vector that is closest to the m-dimensional feature vector extracted from the learning pattern among the reference vectors of the correct category included in the m-dimensional reference vector. Of the reference vectors of the incorrect answer category that are extracted as the vector (A) and are included in the m-dimensional reference vector, After extracting the nearest m-dimensional reference vector away as a reference vector (B), the distance between the m-dimensional feature vector and the reference vector (A) approaches more,
Further, the m-dimensional feature vector and the reference vector (B)
And a feature selection dictionary correction unit that corrects the feature selection dictionary so that the distance from the feature selection dictionary is further increased.
抽出する特徴抽出部と、 n次元特徴ベクトルからm次元特徴ベクトル(但し、m
<n)を選択するための情報を格納する特徴選択辞書
と、 前記特徴選択辞書を参照して前記特徴抽出部が抽出した
n次元特徴ベクトルから大分類用のm次元特徴ベクトル
を抽出する特徴選択部と、 n次元参照ベクトルの集合からなる詳細識別用辞書と、 前記詳細識別用辞書を前記特徴選択辞書に基づいてm次
元参照ベクトルの集合を抽出する大分類辞書作成部と、 前記特徴選択部で抽出したm次元特徴ベクトルと前記大
分類辞書作成部が抽出したm次元参照ベクトルとを照合
し、前記m次元特徴ベクトルとの類似度が大きい順に上
位所定個数(K個)の前記m次元参照ベクトルの番号を
候補参照ベクトル番号として抽出する大分類部と、 前記大分類部にて抽出した候補参照ベクトル番号に対応
する前記詳細識別用辞書中の所定個数(K個)のn次元
参照ベクトルと前記特徴抽出部にて抽出したn次元特徴
ベクトルとを照合して照合結果を出力する詳細識別部
と、 前記詳細識別部の出力結果に基づいて認識結果を出力す
る認識結果出力部と、 特徴選択辞書の学習時には、前記m次元参照ベクトル中
に含まれる正解カテゴリの参照ベクトルのうち、学習パ
ターンから抽出した前記m次元特徴ベクトルとの類似度
が最も大きいm次元参照ベクトルを参照ベクトル(A)
として抽出し、さらに前記m次元参照ベクトル中に含ま
れる不正解カテゴリの参照ベクトルのうち、前記m次元
特徴ベクトルとの類似度が最も大きいm次元参照ベクト
ルを、参照ベクトル(B)として抽出した後、前記m次
元特徴ベクトルと前記参照ベクトル(A)との類似度が
より増大し、更に前記m次元特徴ベクトルと前記参照ベ
クトル(B)との類似度がより減少するように、前記特
徴選択辞書を修正する特徴選択辞書修正部と、 を備える、ことを特徴とするパターン認識装置。4. A feature extraction unit for extracting an n-dimensional feature vector from an input pattern, and an m-dimensional feature vector from the n-dimensional feature vector (where m
Feature selection dictionary that stores information for selecting <n), and feature selection that extracts an m-dimensional feature vector for large classification from the n-dimensional feature vector extracted by the feature extraction unit with reference to the feature selection dictionary. Section, a detailed identification dictionary composed of a set of n-dimensional reference vectors, a general classification dictionary creating section for extracting a set of m-dimensional reference vectors from the detailed identification dictionary based on the feature selection dictionary, and the feature selection section The m-dimensional feature vector extracted in step 1 is collated with the m-dimensional reference vector extracted by the large classification dictionary creating unit, and a predetermined upper number (K) of the m-dimensional reference vectors in descending order of similarity with the m-dimensional feature vector. A large classification unit that extracts a vector number as a candidate reference vector number, and a predetermined number (K pieces) in the detailed identification dictionary corresponding to the candidate reference vector numbers extracted by the large classification unit. A detailed identification unit for collating the n-dimensional reference vector of n with the n-dimensional feature vector extracted by the feature extraction unit and outputting a collation result; and a recognition result for outputting a recognition result based on the output result of the detailed discrimination unit. During learning of the output unit and the feature selection dictionary, among the reference vectors of the correct answer category included in the m-dimensional reference vector, the m-dimensional reference vector having the highest similarity to the m-dimensional feature vector extracted from the learning pattern is selected. Reference vector (A)
And extracting the m-dimensional reference vector having the highest similarity to the m-dimensional feature vector among the reference vectors of the incorrect category included in the m-dimensional reference vector as the reference vector (B). , The feature selection dictionary such that the degree of similarity between the m-dimensional feature vector and the reference vector (A) increases and the degree of similarity between the m-dimensional feature vector and the reference vector (B) further decreases. A pattern recognition device comprising: a feature selection dictionary correction unit that corrects.
抽出する特徴抽出部と、 n次元特徴ベクトルからm次元特徴ベクトル(但し、m
<n)を選択するための情報を格納する特徴選択辞書
と、 前記特徴選択辞書を参照して前記特徴抽出部が抽出した
n次元特徴ベクトルから大分類用のm次元特徴ベクトル
を抽出する特徴選択部と、 n次元参照ベクトルの集合からなる詳細識別用辞書と、 前記詳細識別用辞書を前記特徴選択辞書に基づいてm次
元参照ベクトルの集合を抽出する大分類辞書作成部と、 前記特徴選択部で抽出したm次元特徴ベクトルと前記大
分類辞書作成部が抽出したm次元参照ベクトルとを照合
し、前記m次元特徴ベクトルとの距離が近い順に上位所
定個数(K個)の前記m次元参照ベクトルの番号を候補
参照ベクトル番号として抽出する大分類部と、 前記大分類部にて抽出した候補参照ベクトル番号に対応
する前記詳細識別用辞書中の所定個数(K個)のn次元
参照ベクトルと前記特徴抽出部にて抽出したn次元特徴
ベクトルとを照合して照合結果を出力する詳細識別部
と、 前記詳細識別部の出力結果に基づいて認識結果を出力す
る認識結果出力部と、 特徴選択辞書の学習時には、前記詳細識別用辞書中に含
まれる正解カテゴリのn次元参照ベクトルのうち、学習
パターンから抽出した前記n次元特徴ベクトルとの距離
が最も近いn次元参照ベクトルを選び出し、これに対応
するm次元参照ベクトルを参照ベクトル(C)として抽
出し、さらにm次元参照ベクトル中の不正解m次元参照
ベクトルのうち、前記m次元特徴ベクトルとの距離が最
も近いm次元参照ベクトルを参照ベクトル(B)として
抽出し、前記m次元特徴ベクトルと前記m次元参照ベク
トル(C)との距離がより近づき、更に前記m次元特徴
ベクトルと前記m次元参照ベクトル(B)との距離がよ
り遠ざかるように、前記特徴選択関数を修正する特徴選
択辞書修正部と、 を備える、ことを特徴とするパターン認識装置。5. A feature extraction unit for extracting an n-dimensional feature vector from an input pattern, and an m-dimensional feature vector from the n-dimensional feature vector (where m
Feature selection dictionary that stores information for selecting <n), and feature selection that extracts an m-dimensional feature vector for large classification from the n-dimensional feature vector extracted by the feature extraction unit with reference to the feature selection dictionary. Section, a detailed identification dictionary composed of a set of n-dimensional reference vectors, a general classification dictionary creating section for extracting a set of m-dimensional reference vectors from the detailed identification dictionary based on the feature selection dictionary, and the feature selection section The m-dimensional feature vector extracted in step 1 is collated with the m-dimensional reference vector extracted by the large classification dictionary creating unit, and a predetermined number (K) of upper-rank m-dimensional reference vectors are arranged in the order of decreasing distance from the m-dimensional feature vector. Number as a candidate reference vector number and a predetermined number (K) in the detailed identification dictionary corresponding to the candidate reference vector number extracted by the large classification unit. A detailed identification unit that collates the dimensional reference vector with the n-dimensional feature vector extracted by the feature extraction unit and outputs a collation result, and a recognition result output unit that outputs the recognition result based on the output result of the detailed discrimination unit. During learning of the feature selection dictionary, an n-dimensional reference vector closest in distance to the n-dimensional feature vector extracted from the learning pattern is selected from n-dimensional reference vectors of correct categories included in the detailed identification dictionary. , An m-dimensional reference vector corresponding to this is extracted as a reference vector (C), and further, of the incorrect m-dimensional reference vectors in the m-dimensional reference vector, the m-dimensional reference vector closest to the m-dimensional feature vector. Is extracted as a reference vector (B), the distance between the m-dimensional feature vector and the m-dimensional reference vector (C) becomes closer, and Wherein the m-dimensional feature vector distance between the m-dimensional reference vector (B) is to be more away, and a feature selection dictionary modification unit for modifying the feature selection function, the pattern recognition apparatus characterized by.
抽出する特徴抽出部と、 n次元特徴ベクトルからm次元特徴ベクトル(但し、m
<n)を選択するための情報を格納する特徴選択辞書
と、 前記特徴選択辞書を参照して前記特徴抽出部が抽出した
n次元特徴ベクトルから大分類用のm次元特徴ベクトル
を抽出する特徴選択部と、 n次元参照ベクトルの集合からなる詳細識別用辞書と、 前記詳細識別用辞書を前記特徴選択辞書に基づいてm次
元参照ベクトルの集合を抽出する大分類辞書作成部と、 前記特徴選択部で抽出したm次元特徴ベクトルと前記大
分類辞書作成部が抽出したm次元参照ベクトルとを照合
し、前記m次元特徴ベクトルとの類似度が大きい順に上
位所定個数(K個)の前記m次元参照ベクトルの番号を
候補参照ベクトル番号として抽出する大分類部と、 前記大分類部にて抽出した候補参照ベクトル番号に対応
する前記詳細識別用辞書中の所定個数(K個)のn次元
参照ベクトルと前記特徴抽出部にて抽出したn次元特徴
ベクトルとを照合して照合結果を出力する詳細識別部
と、 前記詳細識別部の出力結果に基づいて認識結果を出力す
る認識結果出力部と、 特徴選択辞書の学習時には、前記詳細識別用辞書中に含
まれる正解カテゴリのn次元参照ベクトルのうち、学習
パターンから抽出した前記n次元特徴ベクトルとの類似
度が最も大きいn次元参照ベクトルを選び出し、これに
対応するm次元参照ベクトルを参照ベクトル(C)とし
て抽出し、さらにm次元参照ベクトル中の不正解m次元
参照ベクトルのうち、前記m次元特徴ベクトルとの類似
度が最も大きいm次元参照ベクトルを参照ベクトル
(B)として抽出し、前記m次元特徴ベクトルと前記参
照ベクトル(C)との類似度がより増大し、更に前記m
次元特徴ベクトルと前記参照ベクトル(B)との類似度
がより減少するように、前記特徴選択関数を修正する特
徴選択辞書修正部と、 を備える、ことを特徴とするパターン認識装置。6. A feature extraction unit for extracting an n-dimensional feature vector from an input pattern, and an m-dimensional feature vector from the n-dimensional feature vector (where m
Feature selection dictionary that stores information for selecting <n), and feature selection that extracts an m-dimensional feature vector for large classification from the n-dimensional feature vector extracted by the feature extraction unit with reference to the feature selection dictionary. Section, a detailed identification dictionary composed of a set of n-dimensional reference vectors, a general classification dictionary creating section for extracting a set of m-dimensional reference vectors from the detailed identification dictionary based on the feature selection dictionary, and the feature selection section The m-dimensional feature vector extracted in step 1 is collated with the m-dimensional reference vector extracted by the large classification dictionary creating unit, and a predetermined upper number (K) of the m-dimensional reference vectors in descending order of similarity with the m-dimensional feature vector. A large classification unit that extracts a vector number as a candidate reference vector number, and a predetermined number (K pieces) in the detailed identification dictionary corresponding to the candidate reference vector numbers extracted by the large classification unit. A detailed identification unit for collating the n-dimensional reference vector of n with the n-dimensional feature vector extracted by the feature extraction unit and outputting a collation result; and a recognition result for outputting a recognition result based on the output result of the detailed discrimination unit. At the time of learning the output unit and the feature selection dictionary, an n-dimensional reference vector having the highest similarity with the n-dimensional feature vector extracted from the learning pattern among the n-dimensional reference vectors of the correct category included in the detailed identification dictionary A vector is selected, an m-dimensional reference vector corresponding to the vector is extracted as a reference vector (C), and further, of the incorrect m-dimensional reference vectors in the m-dimensional reference vector, the similarity with the m-dimensional feature vector is the largest. By extracting the m-dimensional reference vector as the reference vector (B), the similarity between the m-dimensional feature vector and the reference vector (C) is further increased. Further, the m
A feature selection dictionary correction unit that corrects the feature selection function so that the degree of similarity between the dimensional feature vector and the reference vector (B) is further reduced.
m<n)の特徴に変換するための特徴選択情報を記憶す
る特徴選択辞書と、 入力パターンの1次特徴に基づく認識のために予め学習
により作成されている詳細識別用参照パターンをカテゴ
リ毎に記憶する詳細識別用辞書と、を記憶する記憶手段
を備え、 前記詳細識別用辞書中のn次元の参照パターンと、学習
パターンから抽出されたn次元特徴とから、前記特徴選
択辞書の内容に基づき、m次元参照パターンとm次元特
徴とを抽出する手段と、 前記学習パターンと同一カテゴリに属するm次元参照パ
ターンのうち、前記m次元特徴との距離が最も近い参照
パターンを、第1の参照パターンとして抽出する手段
と、 前記学習パターンと異なるカテゴリに属するm次元参照
パターンのうち、前記m次元特徴との距離が最も近い参
照パターンを第2の参照パターンとして抽出する手段
と、 前記m次元特徴と前記第1の参照パターンとの距離がよ
り近づくとともに、前記m次元特徴と前記第2の参照パ
ターンとの距離がより遠ざかるように、前記特徴選択辞
書の内容を修正する手段と、 を備えた、ことを特徴とするパターン認識装置。7. The primary features of the input pattern are m-dimensional (where
For each category, a feature selection dictionary that stores feature selection information for converting into features of m <n) and a reference pattern for detailed identification created by learning in advance for recognition based on the primary feature of the input pattern A detailed identification dictionary to be stored; and storage means for storing the detailed identification dictionary, based on the contents of the feature selection dictionary from the n-dimensional reference pattern in the detailed identification dictionary and the n-dimensional features extracted from the learning pattern. , A means for extracting an m-dimensional reference pattern and an m-dimensional feature, and a reference pattern having the closest distance to the m-dimensional feature among the m-dimensional reference patterns belonging to the same category as the learning pattern, the first reference pattern. And a reference pattern closest in distance to the m-dimensional feature among the m-dimensional reference patterns belonging to a category different from the learning pattern. And a means for extracting as the second reference pattern, so that the distance between the m-dimensional feature and the first reference pattern becomes closer, and the distance between the m-dimensional feature and the second reference pattern becomes further away. A pattern recognition device comprising: a means for modifying the contents of a feature selection dictionary.
はnより小の正整数)の特徴に変換する関数を記憶する
特徴選択辞書と、 前記1次特徴に基づく認識用に予め作成されている詳細
識別用参照パターンを記憶する詳細識別用辞書と、を記
憶する記憶装置を備え、 (a)入力パターンから1次特徴としてn次元の特徴を
抽出する特徴抽出処理と、 (b)前記特徴選択辞書に記憶される関数に基づき、2
次特徴として前記1次特徴からm次元の特徴を抽出する
特徴選択処理と、 (c)前記詳細識別用辞書中に含まれる各々の詳細識別
用参照パターンを、前記特徴選択辞書に記憶されている
関数に基づいて、m次元の大分類用参照パターンに変換
し記憶する大分類辞書作成処理と、 (d)前記大分類用参照パターンの中から前記特徴選択
部で抽出した2次特徴との距離が近い上位の所定個数
(K個)の大分類用参照パターンを抽出し、これらに対
応する前記詳細識別用参照パターンを特定する情報を出
力する大分類処理と、 (e)前記大分類処理の出力情報によって特定される所
定個数(K個)の前記詳細識別用参照パターンと、前記
特徴抽出処理で抽出された1次特徴と、を照合して、照
合結果を出力する詳細識別処理と、 (f)前記照合結果を加工して記憶装置又は出力装置に
出力する認識結果出力処理と、 (g)前記特徴選択辞書に記憶される関数の学習時に
は、前記大分類用参照パターン中に含まれる参照パター
ンのうち、学習パターンと同一のカテゴリ(以下、「正
解カテゴリ」という)に属し、且つ、学習パターンから
抽出した前記2次特徴との距離が最も近い大分類用参照
パターンを参照パターン(A)として抽出し、さらに前
記大分類用参照パターン中に含まれる参照パターンのう
ち、学習パターンと同一でないカテゴリ(以下、「不正
解カテゴリ」という)に属し、且つ前記2次特徴との距
離が最も近い大分類用参照パターンを参照パターン
(B)として抽出し、前記2次特徴と前記参照パターン
(A)との距離がより近づき、更に前記2次特徴と前記
参照パターン(B)との距離がより遠ざかるように、前
記特徴選択辞書の関数を修正する特徴選択辞書修正処理
と、 の前記(a)乃至(g)の各処理を前記パターン認識装
置を構成するコンピュータで実行させるためのプログラ
ムを記録した記録媒体。8. A pattern recognition apparatus, wherein the primary features (n dimensions) of an input pattern are m dimensions (where m
Is a positive integer smaller than n), a feature selection dictionary that stores a function for converting into features, and a detailed identification dictionary that stores a detailed identification reference pattern that is created in advance for recognition based on the primary features, (A) feature extraction processing for extracting n-dimensional features as primary features from the input pattern, and (b) 2) based on the function stored in the feature selection dictionary.
Feature selection processing for extracting an m-dimensional feature from the primary feature as the next feature, and (c) each detail identification reference pattern included in the detail identification dictionary is stored in the feature selection dictionary. A large classification dictionary creation process of converting to and storing an m-dimensional large classification reference pattern based on a function; (d) distance from the large classification reference pattern to the secondary feature extracted by the feature selecting unit A large-classification process of extracting a predetermined number (K) of large-classification reference patterns that are close to each other, and outputting information for specifying the detailed-identification reference pattern corresponding thereto; and (e) the large-classification process. A detailed identification process of collating a predetermined number (K) of the reference patterns for detailed identification specified by the output information with the primary features extracted by the feature extraction process, and outputting a collation result; f) The verification result A recognition result output process of processing the fruit and outputting the result to a storage device or an output device; and (g) at the time of learning the function stored in the feature selection dictionary, among the reference patterns included in the large classification reference pattern, A large classification reference pattern that belongs to the same category as the learning pattern (hereinafter referred to as “correct answer category”) and that is closest to the secondary feature extracted from the learning pattern is extracted as a reference pattern (A), Further, among the reference patterns included in the large-classification reference pattern, the large-classification reference that belongs to a category that is not the same as the learning pattern (hereinafter, referred to as “incorrect solution category”) and has the shortest distance from the secondary feature. The pattern is extracted as a reference pattern (B), the distance between the secondary feature and the reference pattern (A) becomes closer, and the secondary feature and the reference pattern are further reduced. A computer that configures the pattern recognition device, and a feature selection dictionary correction process that corrects a function of the feature selection dictionary so that the distance from the pattern recognition device is further increased. A recording medium that records a program to be executed in.
はnより小の正整数)の特徴に変換する関数を記憶する
特徴選択辞書と、 前記1次特徴に基づく認識用に予め作成されている詳細
識別用参照パターンを記憶する詳細識別用辞書と、を記
憶する記憶装置を備え、 (a)入力パターンから1次特徴としてn次元の特徴を
抽出する特徴抽出処理と、 (b)前記特徴選択辞書に記憶される関数に基づき2次
特徴として前記1次特徴からm次元の特徴を抽出する特
徴選択処理と、 (c)前記詳細識別用辞書中に含まれる各々の詳細識別
用参照パターンを前記特徴選択辞書に記憶されている関
数に基づいてm次元の大分類用参照パターンに変換し記
憶する大分類辞書作成処理と、 (d)前記大分類用参照パターンの中から前記特徴選択
処理で抽出された2次特徴との類似度が大きい上位所定
個数(K個)の大分類用参照パターンを抽出し、これら
に対応する前記詳細識別用参照パターンを特定する情報
を出力する大分類処理と、 (e)前記大分類部の出力情報によって特定される所定
個数(K個)の前記詳細識別用参照パターンと前記特徴
抽出部が抽出した1次特徴とを照合して、照合結果を出
力する詳細識別処理と、 (f)前記詳細識別部の出力を加工して記憶装置又は出
力装置に出力する認識結果出力処理と、 (g)前記特徴選択辞書に記憶される特徴選択関数の学
習時には、前記大分類用参照パターン中に含まれる正解
カテゴリの参照パターンのうち、学習パターンから抽出
した前記2次特徴との類似度が最も高い大分類用参照パ
ターンを参照パターン(A)として抽出し、 さらに前記大分類用参照パターン中に含まれる不正解カ
テゴリの参照パターンのうち、前記2次特徴との類似度
が最も高い大分類用参照パターンを参照パターン(B)
として抽出した後、前記2次特徴と前記参照パターン
(A)との類似度より増大し、更に前記2次特徴と前記
参照パターン(B)との類似度がより減少するように、
前記特徴選択辞書の関数を修正する特徴選択辞書修正処
理と、 の前記(a)乃至(g)の各処理を前記パターン認識装
置を構成するコンピュータで実行させるためのプログラ
ムを記録した録媒体。9. A pattern recognition apparatus, wherein the primary features (n dimensions) of an input pattern are m dimensions (where m
Is a positive integer smaller than n), a feature selection dictionary that stores a function for converting into features, and a detailed identification dictionary that stores a detailed identification reference pattern that is created in advance for recognition based on the primary features, (A) feature extraction processing for extracting n-dimensional features as primary features from the input pattern; and (b) secondary features based on a function stored in the feature selection dictionary. A feature selection process for extracting an m-dimensional feature from the next feature, and (c) an m-dimensional feature of each detailed identification reference pattern included in the detailed identification dictionary, based on a function stored in the feature selection dictionary. A large-classification dictionary creating process of converting the large-classification reference pattern into a large-classification reference pattern and storing the large-classification reference pattern; (K (B) a large-classification process of extracting the large-classification reference patterns and outputting information for specifying the detailed identification reference patterns corresponding to these; (e) a predetermined number (a) specified by the output information of the large-classification unit ( (K) the detailed identification reference patterns and the primary features extracted by the feature extraction unit are collated, and the detailed identification processing for outputting the collation result; (f) The output of the detailed identification unit is processed. In the recognition result output process of outputting to the storage device or the output device, and (g) during learning of the feature selection function stored in the feature selection dictionary, among the reference patterns of the correct category included in the reference pattern for large classification, The large classification reference pattern extracted from the learning pattern and having the highest degree of similarity to the secondary feature is extracted as a reference pattern (A), and further, the incorrect answer pattern included in the large classification reference pattern is extracted. Among reference pattern Gori, reference pattern rough classification reference pattern highest similarity with the secondary features (B)
After the extraction, the similarity between the secondary feature and the reference pattern (A) is increased, and the similarity between the secondary feature and the reference pattern (B) is further decreased.
A recording medium which records a program for causing a computer constituting the pattern recognition device to execute the feature selection dictionary correction process for correcting the function of the feature selection dictionary and the processes (a) to (g).
次元特徴ベクトル(但し、mはnより小の正整数)を選
択するための情報を格納する特徴選択辞書と、 n次元参照ベクトルの集合からなる詳細識別用辞書と、
を記憶する記憶装置を備え、 (a)入力パターンからn次元の特徴ベクトルを抽出す
る特徴抽出処理と、 (b)前記特徴選択辞書を参照して前記特徴抽出処理で
抽出されたn次元特徴ベクトルから大分類用のm次元特
徴ベクトルを抽出する特徴選択処理と、 (c)前記詳細識別用辞書から前記特徴選択辞書に基づ
いてm次元参照ベクトルの集合を抽出する大分類辞書作
成処理と、 (d)前記特徴選択処理で抽出したm次元特徴ベクトル
と前記大分類辞書作成処理で抽出されたm次元参照ベク
トルとを照合し、前記m次元特徴ベクトルとの距離が近
い順に上位所定個数(K個)の前記m次元参照ベクトル
の番号を候補参照ベクトル番号として抽出する大分類処
理と、 (e)前記大分類処理にて抽出された候補参照ベクトル
番号に対応する前記詳細識別用辞書中の所定個数(K
個)のn次元参照ベクトルと前記特徴抽出部にて抽出し
たn次元特徴ベクトルとを照合して照合結果を出力する
詳細識別処理と、 (f)前記詳細識別処理の出力結果に基づいて認識結果
を記憶装置又は出力装置に出力する認識結果出力処理
と、 (g)特徴選択辞書の学習時には、前記m次元参照ベク
トル中に含まれる正解カテゴリの参照ベクトルのうち、
学習パターンから抽出した前記m次元特徴ベクトルとの
距離が最も近いm次元参照ベクトルを参照ベクトル
(A)として抽出し、さらに前記m次元参照ベクトル中
に含まれる不正解カテゴリの参照ベクトルのうち、前記
m次元特徴ベクトルとの距離が最も近いm次元参照ベク
トルを参照ベクトル(B)として抽出した後、前記m次
元特徴ベクトルと前記参照ベクトル(A)との距離がよ
り近づき、更に前記m次元特徴ベクトルと前記参照ベク
トル(B)との距離がより遠ざかるように、前記特徴選
択辞書を修正する特徴選択辞書修正処理と、 の前記(a)乃至(g)の各処理を前記パターン認識装
置を構成するコンピュータで実行させるためのプログラ
ムを記録した記録媒体。10. In a pattern recognition device, m from a primary feature (n-dimensional feature vector) of an input pattern
A feature selection dictionary that stores information for selecting a dimensional feature vector (where m is a positive integer smaller than n), and a detailed identification dictionary that includes a set of n-dimensional reference vectors,
(A) a feature extraction process for extracting an n-dimensional feature vector from an input pattern; and (b) an n-dimensional feature vector extracted by the feature extraction process with reference to the feature selection dictionary. A feature selection process for extracting an m-dimensional feature vector for major classification from (c) a major dictionary creation process for extracting a set of m-dimensional reference vectors from the detailed identification dictionary based on the feature selection dictionary; d) The m-dimensional feature vector extracted by the feature selection process and the m-dimensional reference vector extracted by the large classification dictionary creation process are collated, and a predetermined number of upper ranks (K) are arranged in the order of close distance to the m-dimensional feature vector. (B) major classification processing for extracting the number of the m-dimensional reference vector as a candidate reference vector number; and (e) before corresponding to the candidate reference vector number extracted in the major classification processing. Predetermined number in detail identification dictionary (K
Individual) n-dimensional reference vector and the n-dimensional feature vector extracted by the feature extraction unit are collated and a collation result is output, and (f) a recognition result based on the output result of the detail discrimination process. Recognition result output processing for outputting to the storage device or the output device, and (g) during learning of the feature selection dictionary, among the reference vectors of the correct category included in the m-dimensional reference vector,
An m-dimensional reference vector that is closest to the m-dimensional feature vector extracted from the learning pattern is extracted as a reference vector (A), and further, of the reference vectors of the incorrect solution category included in the m-dimensional reference vector, After the m-dimensional reference vector having the closest distance to the m-dimensional feature vector is extracted as the reference vector (B), the distance between the m-dimensional feature vector and the reference vector (A) becomes closer, and the m-dimensional feature vector is further reduced. And the reference vector (B) so that the distance between the reference vector (B) and the feature selection dictionary is corrected so that the distance between the reference vector (B) and the reference vector (B) is further increased. A recording medium recording a program to be executed by a computer.
次元特徴ベクトル(但し、mはnより小の正整数)を選
択するための情報を格納する特徴選択辞書と、 n次元参照ベクトルの集合からなる詳細識別用辞書と、
を記憶する記憶装置を備え、 (a)入力パターンからn次元の特徴ベクトルを抽出す
る特徴抽出処理と、 (b)前記特徴選択辞書を参照して前記特徴抽出処理で
抽出されたn次元特徴ベクトルから大分類用のm次元特
徴ベクトルを抽出する特徴選択処理と、 (c)前記詳細識別用辞書を前記特徴選択辞書に基づい
てm次元参照ベクトルの集合を抽出する大分類辞書作成
処理と、 (d)前記特徴選択処理で抽出されたm次元特徴ベクト
ルと前記大分類辞書作成処理で抽出されたm次元参照ベ
クトルとを照合し、前記m次元特徴ベクトルとの類似度
が大きい順に上位所定個数(K個)の前記m次元参照ベ
クトルの番号を候補参照ベクトル番号として抽出する大
分類処理と、 (e)前記大分類処理で抽出された候補参照ベクトル番
号に対応する前記詳細識別用辞書中の所定個数(K個)
のn次元参照ベクトルと前記特徴抽出処理にて抽出され
たn次元特徴ベクトルとを照合して照合結果を出力する
詳細識別処理と、 (f)前記詳細識別処理の出力結果に基づいて認識結果
を出力する認識結果出力処理と、 (g)特徴選択辞書の学習時には、前記m次元参照ベク
トル中に含まれる正解カテゴリの参照ベクトルのうち、
学習パターンから抽出した前記m次元特徴ベクトルとの
類似度が最も大きいm次元参照ベクトルを参照ベクトル
(A)として抽出し、さらに前記m次元参照ベクトル中
に含まれる不正解カテゴリの参照ベクトルのうち、前記
m次元特徴ベクトルとの類似度が最も大きいm次元参照
ベクトルを、参照ベクトル(B)として抽出した後、前
記m次元特徴ベクトルと前記参照ベクトル(A)との類
似度がより増大し、更に前記m次元特徴ベクトルと前記
参照ベクトル(B)との類似度がより減少するように、
前記特徴選択辞書を修正する特徴選択辞書修正処理と、 の前記(a)乃至(g)の各処理を前記パターン認識装
置を構成するコンピュータで実行させるためのプログラ
ムを記録した記録媒体。11. In a pattern recognition device, m from a primary feature (n-dimensional feature vector) of an input pattern
A feature selection dictionary that stores information for selecting a dimensional feature vector (where m is a positive integer smaller than n), and a detailed identification dictionary that includes a set of n-dimensional reference vectors,
(A) a feature extraction process for extracting an n-dimensional feature vector from an input pattern; and (b) an n-dimensional feature vector extracted by the feature extraction process with reference to the feature selection dictionary. A feature selection process for extracting an m-dimensional feature vector for large classification from (c) a large classification dictionary creation process for extracting a set of m-dimensional reference vectors from the detailed identification dictionary based on the feature selection dictionary; d) The m-dimensional feature vector extracted by the feature selection process and the m-dimensional reference vector extracted by the large classification dictionary creation process are collated, and a predetermined number of higher ranks in descending order of similarity with the m-dimensional feature vector ( Corresponding to the candidate reference vector numbers extracted in the large classification processing; and (e) the large classification processing for extracting the numbers of the K) m-dimensional reference vectors as candidate reference vector numbers. A predetermined number in the serial detailed identification dictionary (K number)
And a detailed identification process for collating the n-dimensional reference vector of n with the n-dimensional feature vector extracted by the feature extraction process and outputting a collation result; (f) a recognition result based on the output result of the detailed discrimination process. During the recognition result output process of outputting and (g) learning of the feature selection dictionary, among the reference vectors of the correct category included in the m-dimensional reference vector,
An m-dimensional reference vector having the highest similarity to the m-dimensional feature vector extracted from the learning pattern is extracted as a reference vector (A), and further, of the reference vectors of the incorrect category included in the m-dimensional reference vector, After extracting the m-dimensional reference vector having the highest similarity to the m-dimensional feature vector as the reference vector (B), the similarity between the m-dimensional feature vector and the reference vector (A) is further increased, and In order to reduce the similarity between the m-dimensional feature vector and the reference vector (B),
A recording medium which records a program for causing a computer constituting the pattern recognition device to execute the feature selection dictionary correction process for correcting the feature selection dictionary and each of the processes (a) to (g).
次元特徴ベクトル(但し、mはnより小の正整数)を選
択するための情報を格納する特徴選択辞書と、 n次元参照ベクトルの集合からなる詳細識別用辞書と、
を記憶する記憶装置を備え、 (a)入力パターンからn次元の特徴ベクトルを抽出す
る特徴抽出処理と、 (b)前記特徴選択辞書を参照して前記特徴抽出処理で
抽出されたn次元特徴ベクトルから大分類用のm次元特
徴ベクトルを抽出する特徴選択処理と、 (c)前記詳細識別用辞書から前記特徴選択辞書に基づ
いてm次元参照ベクトルの集合を抽出する大分類辞書作
成処理と、 (d)前記特徴選択処理で抽出されたm次元特徴ベクト
ルと前記大分類辞書作成部で抽出されたm次元参照ベク
トルとを照合し、前記m次元特徴ベクトルとの距離が近
い順に上位所定個数(K個)の前記m次元参照ベクトル
の番号を候補参照ベクトル番号として抽出する大分類処
理と、 (e)前記大分類処理にて抽出された候補参照ベクトル
番号に対応する前記詳細識別用辞書中の所定個数(K
個)のn次元参照ベクトルと前記特徴抽出処理にて抽出
したn次元特徴ベクトルとを照合して照合結果を出力す
る詳細識別処理と、 (f)前記詳細識別処理の出力結果に基づいて認識結果
を出力する認識結果出力処理と、 (g)前記特徴選択辞書の学習時には、前記詳細識別用
辞書中に含まれる正解カテゴリのn次元参照ベクトルの
うち、学習パターンから抽出した前記n次元特徴ベクト
ルとの距離が最も近いn次元参照ベクトルを選び出し、
これに対応するm次元参照ベクトルを参照ベクトル
(C)として抽出し、さらにm次元参照ベクトル中の不
正解m次元参照ベクトルのうち、前記m次元特徴ベクト
ルとの距離が最も近いm次元参照ベクトルを参照ベクト
ル(B)として抽出し、前記m次元特徴ベクトルと前記
m次元参照ベクトル(C)との距離がより近づき、更に
前記m次元特徴ベクトルと前記m次元参照ベクトル
(B)との距離がより遠ざかるように、前記特徴選択辞
書の関数を修正する特徴選択辞書修正処理と、 の前記(a)乃至(g)の各処理を前記パターン認識装
置を構成するコンピュータで実行させるためのプログラ
ムを記録した記録媒体。12. A pattern recognition apparatus, wherein m is calculated from a primary feature (n-dimensional feature vector) of an input pattern.
A feature selection dictionary that stores information for selecting a dimensional feature vector (where m is a positive integer smaller than n), and a detailed identification dictionary that includes a set of n-dimensional reference vectors,
(A) a feature extraction process for extracting an n-dimensional feature vector from an input pattern; and (b) an n-dimensional feature vector extracted by the feature extraction process with reference to the feature selection dictionary. A feature selection process for extracting an m-dimensional feature vector for major classification from (c) a major dictionary creation process for extracting a set of m-dimensional reference vectors from the detailed identification dictionary based on the feature selection dictionary; d) The m-dimensional feature vector extracted by the feature selection processing is collated with the m-dimensional reference vector extracted by the large classification dictionary creating unit, and a predetermined number of higher ranks (K Number) of the m-dimensional reference vector as a candidate reference vector number, and (e) before corresponding to the candidate reference vector number extracted in the large classification process. Predetermined number in detail identification dictionary (K
Individual) n-dimensional reference vector and the n-dimensional feature vector extracted by the feature extraction process, and a detailed identification process for outputting a comparison result; (f) a recognition result based on the output result of the detailed identification process. And (g) at the time of learning of the feature selection dictionary, the n-dimensional feature vector extracted from the learning pattern among the n-dimensional reference vectors of correct categories included in the detailed identification dictionary. Select the n-dimensional reference vector with the closest distance
An m-dimensional reference vector corresponding to this is extracted as a reference vector (C), and further, of the incorrect m-dimensional reference vectors in the m-dimensional reference vector, the m-dimensional reference vector closest to the m-dimensional feature vector is selected. As the reference vector (B), the distance between the m-dimensional feature vector and the m-dimensional reference vector (C) becomes closer, and the distance between the m-dimensional feature vector and the m-dimensional reference vector (B) becomes larger. A program for causing the computer constituting the pattern recognition device to execute the feature selection dictionary correction process for correcting the function of the feature selection dictionary and the respective processes of (a) to (g) described above is recorded so as to move away. recoding media.
次元特徴ベクトル(但し、mはnより小の正整数)を選
択するための情報を格納する特徴選択辞書と、n次元参
照ベクトルの集合からなる詳細識別用辞書と、を記憶す
る記憶装置を備え、 (a)入力パターンからn次元の特徴ベクトルを抽出す
る特徴抽出処理と、 (b)前記特徴選択辞書を参照して前記特徴抽出処理で
抽出されたn次元特徴ベクトルから大分類用のm次元特
徴ベクトルを抽出する特徴選択処理と、 (c)前記詳細識別用辞書から前記特徴選択辞書に基づ
いてm次元参照ベクトルの集合を抽出する大分類辞書作
成処理と、 (d)前記特徴選択処理で抽出したm次元特徴ベクトル
と前記大分類辞書作成処理で抽出されたm次元参照ベク
トルとを照合し、前記m次元特徴ベクトルとの類似度が
大きい順に上位所定個数(K個)の前記m次元参照ベク
トルの番号を候補参照ベクトル番号として抽出する大分
類処理と、 (e)前記大分類処理にて抽出した候補参照ベクトル番
号に対応する前記詳細識別用辞書中の所定個数(K個)
のn次元参照ベクトルと前記特徴抽出処理にて抽出した
n次元特徴ベクトルとを照合して照合結果を出力する詳
細識別処理と、 (f)前記詳細識別処理の出力結果に基づいて認識結果
を出力する認識結果出力処理と、 (g)前記特徴選択辞書の学習時には、前記詳細識別用
辞書中に含まれる正解カテゴリのn次元参照ベクトルの
うち、学習パターンから抽出した前記n次元特徴ベクト
ルとの類似度が最も大きいn次元参照ベクトルを選び出
し、これに対応するm次元参照ベクトルを参照ベクトル
(C)として抽出し、さらにm次元参照ベクトル中の不
正解m次元参照ベクトルのうち、前記m次元特徴ベクト
ルとの類似度が最も大きいm次元参照ベクトルを参照ベ
クトル(B)として抽出し、前記m次元特徴ベクトルと
前記参照ベクトル(C)との類似度がより増大し、更に
前記m次元特徴ベクトルと前記参照ベクトル(B)との
類似度がより減少するように、前記特徴選択辞書の関数
を修正する特徴選択辞書修正処理と、 の前記(a)乃至(g)の各処理を前記パターン認識装
置を構成するコンピュータで実行させるためのプログラ
ムを記録した記録媒体。13. In a pattern recognition device, m from a primary feature (n-dimensional feature vector) of an input pattern
A storage device for storing a feature selection dictionary that stores information for selecting a dimensional feature vector (where m is a positive integer smaller than n) and a detailed identification dictionary that is a set of n-dimensional reference vectors (A) a feature extraction process for extracting an n-dimensional feature vector from an input pattern, and (b) an n-dimensional feature vector for large classification from the n-dimensional feature vector extracted by the feature extraction process with reference to the feature selection dictionary. A feature selection process for extracting a feature vector; (c) a large classification dictionary creation process for extracting a set of m-dimensional reference vectors from the detailed identification dictionary based on the feature selection dictionary; and (d) a feature selection process. The extracted m-dimensional feature vector and the m-dimensional reference vector extracted in the large classification dictionary creation process are collated, and a predetermined number (K) of higher ranks are ranked in descending order of similarity with the m-dimensional feature vector. A large classification process for extracting the number of the m-dimensional reference vector as a candidate reference vector number; and (e) a predetermined number (K pieces) in the detailed identification dictionary corresponding to the candidate reference vector number extracted in the large classification process. )
Detailed identification processing for collating the n-dimensional reference vector of n with the n-dimensional characteristic vector extracted by the feature extraction processing and outputting the collation result; (f) outputting the recognition result based on the output result of the detailed discrimination processing. (G) Similarity to the n-dimensional feature vector extracted from the learning pattern among the n-dimensional reference vectors of the correct category included in the detailed identification dictionary when learning the feature selection dictionary. The n-dimensional reference vector with the highest degree is selected, the m-dimensional reference vector corresponding to this is extracted as a reference vector (C), and the m-dimensional feature vector among the incorrect m-dimensional reference vectors in the m-dimensional reference vector is extracted. The m-dimensional reference vector having the highest similarity to is extracted as a reference vector (B), and the m-dimensional feature vector and the reference vector (C And a feature selection dictionary modification process for modifying the function of the feature selection dictionary so that the similarity between the feature selection dictionary and the reference vector (B) further decreases. A recording medium on which a program for causing the computer constituting the pattern recognition apparatus to execute the processes (a) to (g) is recorded.
し、m<n)の特徴に変換するための特徴選択情報を記
憶する特徴選択辞書と、 入力パターンの1次特徴に基づく認識のために予め作成
されている詳細識別用参照パターンをカテゴリ毎に記憶
する詳細識別用辞書と、を記憶する記憶手段を備え、 前記詳細識別用辞書中のn次元の参照パターンと、学習
パターンから抽出されたn次元特徴とから、前記特徴選
択辞書の内容に基づき、m次元参照パターンとm次元特
徴とを抽出し、 前記学習パターンと同一カテゴリに属するm次元参照パ
ターンのうち、前記m次元特徴との距離が最も近い参照
パターンを、第1の参照パターンとして抽出し、 前記学習パターンと異なるカテゴリに属するm次元参照
パターンのうち、前記m次元特徴との距離が最も近い参
照パターンを第2の参照パターンとして抽出し、 前記m次元特徴と前記第1の参照パターンとの距離がよ
り近づくとともに、更に前記m次元特徴と前記第2の参
照パターンとの距離がより遠ざかるように前記特徴選択
辞書の内容を更新する、ことを特徴とするパターン認識
方法。14. A feature selection dictionary storing feature selection information for converting a primary feature of an input pattern into an m-dimensional (where m <n) feature, and for recognition based on the primary feature of the input pattern. A detailed identification dictionary that stores in advance a detailed identification reference pattern for each category; and a storage unit that stores the detailed identification dictionary, and is extracted from the n-dimensional reference pattern and the learning pattern in the detailed identification dictionary. Based on the content of the feature selection dictionary, the m-dimensional reference pattern and the m-dimensional feature are extracted from the n-dimensional feature, and the m-dimensional feature among the m-dimensional reference patterns that belong to the same category as the learning pattern. The reference pattern having the closest distance is extracted as a first reference pattern, and the distance to the m-dimensional feature among the m-dimensional reference patterns belonging to a category different from the learning pattern is extracted. Is extracted as the second reference pattern, and the distance between the m-dimensional feature and the first reference pattern becomes closer, and the distance between the m-dimensional feature and the second reference pattern is further reduced. A pattern recognition method, characterized in that the contents of the feature selection dictionary are updated so as to be farther away.
し、m<n)の特徴に変換するための特徴選択情報を記
憶する特徴選択辞書と、入力パターンの1次特徴に基づ
く認識のために予め作成されている詳細識別用参照パタ
ーンをカテゴリ毎に記憶する詳細識別用辞書と、を記憶
する記憶手段を備え、 データ処理装置が、特徴抽出部と、特徴選択部と、大分
類辞書作成部と、大分類部と、詳細識別部と、認識結果
出力部と、特徴選択辞書修正部と、を備えたパターン認
識装置のパターン認識方法であって、 学習フェーズが、 (a)前記特徴抽出部において、入力パターンから1次
特徴としてn次元の特徴を抽出するステップと、 (b)前記特徴選択部において、前記特徴選択辞書に記
憶される関数に基づき、2次特徴として前記1次特徴か
らm次元の特徴を抽出するステップと、 (c)前記大分類辞書作成部において、前記詳細識別用
辞書中に含まれる各々の詳細識別用参照パターンを、前
記特徴選択辞書に記憶されている関数に基づいて、m次
元の大分類用参照パターンに変換し記憶するステップ
と、 (d)前記大分類部において、前記大分類用参照パター
ンの中から前記特徴選択部で抽出した2次特徴との距離
が近い上位の所定個数(K個)の大分類用参照パターン
を抽出し、これらに対応する前記詳細識別用参照パター
ンを特定する情報を出力するステップと、 (e)前記詳細識別部において、前記大分類処理の出力
情報によって特定される所定個数(K個)の前記詳細識
別用参照パターンと、前記特徴抽出処理で抽出された1
次特徴と、を照合して、照合結果を出力するステップ
と、 (f)前記照合結果を加工して記憶装置又は出力装置に
出力する認識結果出力処理と、 (g)前記特徴選択辞書修正部において、前記特徴選択
辞書に記憶される関数の学習時には、前記大分類用参照
パターン中に含まれる参照パターンのうち、学習パター
ンと同一のカテゴリに属し、且つ、学習パターンから抽
出した前記2次特徴との距離が最も近い大分類用参照パ
ターンを第1の参照パターンとして抽出し、さらに前記
大分類用参照パターン中に含まれる参照パターンのう
ち、学習パターンと同一でないカテゴリに属し、且つ前
記2次特徴との距離が最も近い大分類用参照パターンを
第2の参照パターンとして抽出し、前記2次特徴と第1
の前記参照パターンとの距離がより近づくとともに、前
記2次特徴と前記第2の参照パターンとの距離がより遠
ざかるように、前記特徴選択辞書の情報を修正するステ
ップと、 を含むことを特徴とするパターン認識方法。15. A feature selection dictionary storing feature selection information for converting a primary feature of an input pattern into an m-dimensional (where m <n) feature, and recognition based on the primary feature of the input pattern. The data processing device includes a feature extraction unit, a feature selection unit, and a large classification dictionary, and a storage unit that stores a detail identification dictionary that stores in advance a detail identification reference pattern for each category. A pattern recognition method of a pattern recognition device, comprising: a section, a large classification section, a detailed identification section, a recognition result output section, and a feature selection dictionary correction section, wherein a learning phase includes (a) the feature extraction. A step of extracting an n-dimensional feature from the input pattern as a primary feature in the unit, and (b) the feature selecting unit, based on the function stored in the feature selection dictionary, from the primary feature as the secondary feature. extracting an m-dimensional feature, and (c) in the large classification dictionary creation unit, each detailed identification reference pattern included in the detailed identification dictionary is converted into a function stored in the feature selection dictionary. A step of converting to and storing the m-dimensional reference pattern for large classification based on the following: (d) In the large classification unit, the distance to the secondary feature extracted by the feature selection unit from the large classification reference pattern. A step of extracting a predetermined number (K) of large-classification reference patterns close to each other and outputting information for specifying the detailed identification reference patterns corresponding to these; (e) in the detailed identification section, A predetermined number (K) of the detailed identification reference patterns specified by the output information of the large classification process and 1 extracted by the feature extraction process.
Collating the following features and outputting a collation result; (f) a recognition result output process of processing the collation result and outputting the result to a storage device or an output device; (g) the feature selection dictionary correction unit In learning the function stored in the feature selection dictionary, among the reference patterns included in the large-classification reference pattern, the secondary features belonging to the same category as the learning pattern and extracted from the learning pattern. The large-classification reference pattern having the closest distance to is extracted as a first reference pattern, and further belongs to a category that is not the same as the learning pattern among the reference patterns included in the large-classification reference pattern, and the secondary pattern The large-classification reference pattern closest to the feature is extracted as a second reference pattern, and the secondary feature and the first feature are extracted.
Of the feature selection dictionary such that the distance between the secondary feature and the second reference pattern is further reduced as the distance between the second reference pattern and the second reference pattern is further reduced. Pattern recognition method.
て、前記学習フェーズによって予め作成された前記特徴
選択辞書と前記詳細識別用辞書を参照してm次元参照パ
ターンを作成し記憶し、 (i)認識対象のパターンを読み込み、入力パターンか
ら1次特徴としてn次元の特徴を前記特徴抽出部で抽出
し、 (j)前記特徴選択部において、前記特徴選択辞書に記
憶される関数に基づき、2次特徴として前記1次特徴か
らm次元の特徴パターンを抽出し、 (k)前記大分類部では、前記詳細識別用辞書中に含ま
れる各々の詳細識別用参照パターンを、前記特徴選択辞
書に記憶されている関数に基づいてm次元の大分類用参
照パターンを抽出し記憶する大分類用辞書作成部で抽出
されたm次元参照パターンの中から前記m次元特徴パタ
ーンに距離が近いものを所定個数抽出して、その参照パ
ターン情報を前記詳細識別部に出力し、 (l)前記詳細識別部において、前記大分類部が出力す
る参照パターン番号に対応するn次元参照パターンを前
記詳細識別用辞書の中から抽出して、その中から特徴抽
出部が出力するn次元特徴パターンに近い距離のものを
出力し、 (m)前記認識結果出力部において、前記詳細識別部が
出力する認識結果を加工して出力装置に出力する、こと
を特徴とする請求項15記載のパターン認識方法。16. In the recognition phase, (h) as initialization processing, the large classification dictionary creating section refers to the feature selection dictionary and the detailed identification dictionary created in advance in the learning phase, and refers to an m-dimensional reference. Creating and storing a pattern, (i) reading a pattern to be recognized, extracting n-dimensional features as primary features from the input pattern by the feature extraction unit, (j) the feature selection dictionary in the feature selection unit M-dimensional feature patterns are extracted from the primary features as secondary features based on the function stored in (4), (k) in the large classification unit, each of the detailed identification references included in the detailed identification dictionary. An m-dimensional reference pattern extracted by a large classification dictionary creating unit that extracts and stores an m-dimensional large classification reference pattern based on a function stored in the feature selection dictionary. A predetermined number of patterns having a distance close to the m-dimensional characteristic pattern are extracted from among the reference pattern information, and the reference pattern information is output to the detailed identification unit, and (l) the reference output by the large classification unit in the detailed identification unit. The n-dimensional reference pattern corresponding to the pattern number is extracted from the detailed identification dictionary, and the one having a distance close to the n-dimensional feature pattern output by the feature extraction unit is output from the dictionary, (m) the recognition result The pattern recognition method according to claim 15, wherein the output unit processes the recognition result output by the detailed identification unit and outputs the processed result to an output device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP36748499A JP3475886B2 (en) | 1999-12-24 | 1999-12-24 | Pattern recognition apparatus and method, and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP36748499A JP3475886B2 (en) | 1999-12-24 | 1999-12-24 | Pattern recognition apparatus and method, and recording medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001184509A JP2001184509A (en) | 2001-07-06 |
JP3475886B2 true JP3475886B2 (en) | 2003-12-10 |
Family
ID=18489427
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP36748499A Expired - Fee Related JP3475886B2 (en) | 1999-12-24 | 1999-12-24 | Pattern recognition apparatus and method, and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3475886B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006209353A (en) * | 2005-01-26 | 2006-08-10 | Sharp Corp | Image determination apparatus, image formimg apparatus, image determination method, image determination program, image formimg program, and computer readable recording medium |
JP2009146245A (en) * | 2007-12-17 | 2009-07-02 | Nec Corp | Image collation method, image collation apparatus, and image collation program |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2834363B1 (en) * | 2001-12-27 | 2004-02-27 | France Telecom | METHOD FOR CHARACTERIZING A SOUND SIGNAL |
JP4697670B2 (en) | 2005-01-05 | 2011-06-08 | 日本電気株式会社 | Identification data learning system, learning device, identification device, and learning method |
CN100369051C (en) * | 2005-01-11 | 2008-02-13 | 富士通株式会社 | Device for generating grayscale character dictionary |
KR100998456B1 (en) * | 2006-07-06 | 2010-12-06 | 아사히 가라스 가부시키가이샤 | Clustering system and defect type judging device |
JP5418991B2 (en) | 2008-07-10 | 2014-02-19 | 日本電気株式会社 | Personal authentication system, personal authentication method |
WO2010090189A1 (en) * | 2009-02-03 | 2010-08-12 | 日本電気株式会社 | Pattern recognition device, pattern recognition method, and pattern recognition program |
JP5353482B2 (en) * | 2009-06-26 | 2013-11-27 | 株式会社日立情報通信エンジニアリング | Pattern recognition dictionary generation device, pattern recognition device, and pattern recognition dictionary generation method |
JP5521497B2 (en) * | 2009-11-05 | 2014-06-11 | 富士通株式会社 | Pattern recognition apparatus, pattern recognition program, and pattern recognition method |
JP5355708B2 (en) | 2009-11-12 | 2013-11-27 | 株式会社東芝 | Metric space learning device and pattern recognition device |
US20180267934A1 (en) * | 2015-09-10 | 2018-09-20 | Nec Corporation | Information processing device, information processing system, information processing method, and recording medium |
JP6337362B1 (en) | 2017-11-02 | 2018-06-06 | パナソニックIpマネジメント株式会社 | Cognitive function evaluation apparatus and cognitive function evaluation system |
-
1999
- 1999-12-24 JP JP36748499A patent/JP3475886B2/en not_active Expired - Fee Related
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006209353A (en) * | 2005-01-26 | 2006-08-10 | Sharp Corp | Image determination apparatus, image formimg apparatus, image determination method, image determination program, image formimg program, and computer readable recording medium |
JP2009146245A (en) * | 2007-12-17 | 2009-07-02 | Nec Corp | Image collation method, image collation apparatus, and image collation program |
JP4518141B2 (en) * | 2007-12-17 | 2010-08-04 | 日本電気株式会社 | Image collation method, image collation apparatus, and image collation program |
US8401310B2 (en) | 2007-12-17 | 2013-03-19 | Nec Corporation | Image comparing method, apparatus and program |
Also Published As
Publication number | Publication date |
---|---|
JP2001184509A (en) | 2001-07-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108920720B (en) | A Large-scale Image Retrieval Method Based on Deep Hashing and GPU Acceleration | |
Fei et al. | Binary tree of SVM: a new fast multiclass training and classification algorithm | |
JP3475886B2 (en) | Pattern recognition apparatus and method, and recording medium | |
US5649068A (en) | Pattern recognition system using support vectors | |
CN101373519B (en) | Character recognition device and method | |
US20080183646A1 (en) | Effective multi-class support vector machine classification | |
US6424746B1 (en) | Figure classifying method, figure classifying system, feature extracting method for figure classification, method for producing table for figure classification, information recording medium, method for evaluating degree of similarity or degree of difference between figures, figure normalizing method, and method for determining correspondence between figures | |
US6539115B2 (en) | Pattern recognition device for performing classification using a candidate table and method thereof | |
JPH0887572A (en) | Soft-margin sorting system | |
US20110295778A1 (en) | Information processing apparatus, information processing method, and program | |
JP2000099632A (en) | Retrieval device, retrieval method and computer readable recording medium recorded with retrieval program | |
CN110060166A (en) | Intelligence Claims Resolution method, apparatus, computer equipment and storage medium | |
US6578031B1 (en) | Apparatus and method for retrieving vector format data from database in accordance with similarity with input vector | |
US6023529A (en) | Handwritten pattern recognizer with selective feature weighting | |
CN103793714B (en) | Many Classification and Identification device generating means and its method, data identification means and its method | |
Münch et al. | Data-driven supervised learning for life science data | |
JP3903613B2 (en) | Search device and computer-readable recording medium storing search program | |
Kuncheva et al. | An integrated framework for generalized nearest prototype classifier design | |
JP5355708B2 (en) | Metric space learning device and pattern recognition device | |
Jouili et al. | Median graph shift: A new clustering algorithm for graph domain | |
JPH10143613A (en) | Pattern recognition method | |
Carter | Dimensionality reduction on statistical manifolds | |
JPH09245125A (en) | Pattern recognition device and dictionary correcting method in the device | |
JPH10289320A (en) | Pattern recognition apparatus and method for performing classification using candidate table | |
JP4701518B2 (en) | Pattern recognition device, pattern recognition method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20030826 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080926 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080926 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090926 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090926 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100926 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110926 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120926 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130926 Year of fee payment: 10 |
|
LAPS | Cancellation because of no payment of annual fees |