[go: up one dir, main page]

JPH02300876A - Character recognizing device - Google Patents

Character recognizing device

Info

Publication number
JPH02300876A
JPH02300876A JP1121079A JP12107989A JPH02300876A JP H02300876 A JPH02300876 A JP H02300876A JP 1121079 A JP1121079 A JP 1121079A JP 12107989 A JP12107989 A JP 12107989A JP H02300876 A JPH02300876 A JP H02300876A
Authority
JP
Japan
Prior art keywords
character
character pattern
similarity
neural network
pattern candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP1121079A
Other languages
Japanese (ja)
Other versions
JP2680419B2 (en
Inventor
Kazuhito Haruki
春木 和仁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP1121079A priority Critical patent/JP2680419B2/en
Publication of JPH02300876A publication Critical patent/JPH02300876A/en
Application granted granted Critical
Publication of JP2680419B2 publication Critical patent/JP2680419B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Character Discrimination (AREA)

Abstract

PURPOSE:To improve the correct answer rate in the recognition of characters by performing a learning operation in order to obtain a character pattern candidate ensuring the maximum degree of original resemblance at every group as the final character recognition result and deciding a subneural net including a character pattern having the highest assurance. CONSTITUTION:The subneural nets 13 - 32 sort the character pattern candidates for each group of similar characters like 'E, KO, YU' and 'HA, HE, MU', etc., which easily cause the misreading and performs a learning operation in order to obtain a character pattern candidate having the maximum degree of original resemblance as the character recognition result at every group based on each degree of the resemblance between an input character pattern and each character pattern candidate. Based on the learning result, the character pattern candidate having the highest assurance is decided at every group. Then a control neural net 12 decides one of those nets 13 - 32 that includes the character pattern candidate having the highest assurance. Consequently, the character recognizing efficiency is improved.

Description

【発明の詳細な説明】 [発明の目的] (産業上の利用分野) 本発明は、ニューラルネットワークを用いた文字認識装
置に関する。
Detailed Description of the Invention [Object of the Invention] (Field of Industrial Application) The present invention relates to a character recognition device using a neural network.

(従来の技術) 近年、ニューラルネットワークを用いて文字認識、音声
認識、画像情報処理等を行うシステムの開発が盛んであ
る。
(Prior Art) In recent years, systems that use neural networks to perform character recognition, voice recognition, image information processing, etc. have been actively developed.

一般に知られる文字認識処理は、入力文字パターンと複
数の文字パターン候補とのパターン・マツチングにより
それぞれの類似度を算出し、その中で最大類似度を得た
文字パターン候補を最終的な文字認識結果として判定し
出力することで文字認識を行うものである。これに対し
、従来の文字認識方法に二、−ラルネットを組合せた方
式では、ある入力文字パターンの認識結果に誤りが生じ
た場合、その人力文字パターンに対する次回からの文字
認識において正解の文字パターン候補が得られるような
方向性を持ってニューラルネットワークにおける各アー
ク荷重値を修正する。
Generally known character recognition processing calculates the degree of similarity between an input character pattern and multiple character pattern candidates by pattern matching, and selects the character pattern candidate with the highest degree of similarity as the final character recognition result. Character recognition is performed by determining and outputting the result as follows. On the other hand, in a method that combines the conventional character recognition method with Bi-ralNet, if an error occurs in the recognition result of a certain input character pattern, the correct character pattern candidate will be used in the next character recognition for that human character pattern. Each arc load value in the neural network is corrected in a direction that yields.

したがって、このニューラルネットワークを採用(また
文字認識処理により、入力文字パターンの特徴の変化に
応じた良好な文字認識を安定して行うことが可能となる
Therefore, by employing this neural network (and character recognition processing), it is possible to stably perform good character recognition in response to changes in the characteristics of input character patterns.

(発明が解決;〜ようとする課題) ところが、こうしたニューラルネットワークを採用した
文字認識処理では、手書き数字の認識においては良好な
認識率が得られるものの、これを手書きカナ文字等に適
用しようと1.た場合数々の障害があった。
(Problem solved by the invention; problem to be solved by the invention) However, although character recognition processing that employs such a neural network achieves a good recognition rate when recognizing handwritten digits, it is difficult to apply this to handwritten kana characters, etc. .. There were a number of obstacles.

例えば、手書き数字の場合、ニューラルネットワークの
入力層は、入力文字パターンと「0」から「9」までの
各数字との類似度にそれぞれ対応する10個のユニット
と、ダミー[個の計11個のユニットだけで済む。これ
に対し手書きカナ文字の場合は、入力層は、入力文字パ
ターンと「ア」から「ン」までの各カナ文字との類似度
にそれぞれ対応する46個のユニットとダミー1個の計
47個が必要となる。これに伴って中間層の数も数字の
場合は50個程度で済んでいたが、カナ文字の場合は少
なくとも 100個あるいはそれ以上必要とする。
For example, in the case of handwritten digits, the input layer of the neural network consists of 10 units, each corresponding to the degree of similarity between the input character pattern and each digit from "0" to "9", and a total of 11 units, including dummies [units]. Only one unit is required. On the other hand, in the case of handwritten kana characters, the input layer has a total of 47 units, 46 units corresponding to the similarity between the input character pattern and each kana character from "A" to "N", and one dummy. Is required. Along with this, the number of intermediate layers used to be about 50 for numbers, but at least 100 or more were required for kana characters.

出力層についても数字の場合は10個、カナ文字の場合
は46個必要とする。
For the output layer, 10 are required for numbers, and 46 are required for kana characters.

したがって、大規模となり、しかも手書きカナ文字の場
合、「工、コ、ユ」等の類似した文字が多いため学習に
長時間を要し、満足する認激率イ。
Therefore, the scale is large, and in the case of handwritten kana characters, it takes a long time to learn because there are many similar characters such as "ko, ko, yu", and the recognition rate is not satisfactory.

得ることができないという問題があった。The problem was that I couldn't get it.

本発明はこのような課題を解決するためのもので、手書
きカナ文字のように文字種類が多く、多くの類似パター
ンを有した文字群についても高い正解率で文字認識を行
うことのできる文字認識装置の提供を目的としている。
The present invention is intended to solve these problems, and is a character recognition system that can perform character recognition with a high accuracy rate even for character groups that have many types of characters and many similar patterns, such as handwritten kana characters. The purpose is to provide equipment.

[発明の構成] (課題を解決するための手段) 第1の発明の文字認識装置は」二足17た目的を達成す
るために、人力文字パターンと複数の文字パターン候補
との各類似度から入力文字パターンの認識結果として最
も確信度の高い文字パターン候補を判定する文字認識装
置において、各文字パターン候補を類似文字群のグルー
プ毎に複数分類し、各類似度から、各グループ毎に本来
類似度が最大となってしかるべき文字パターン候補が最
終的な文字認識結果と12で得られるよう学習を行い、
各グループ毎に最も確信度の高い文字パターン候補をそ
れぞれ判定する複数のサブニューラルネットと、各類似
度から、本来類似度が最大となってしかるべき文字パタ
ーン候補を含むサブニューラルネットの判定結果が最終
的な文字認識結果となるよう学習を行い、最も確信度の
高い文字パターン候補を含むサブニューラルネットを判
定するニューラルネットとを具備したものである。
[Structure of the Invention] (Means for Solving the Problems) The character recognition device of the first invention is based on the degree of similarity between a human character pattern and a plurality of character pattern candidates. In a character recognition device that determines a character pattern candidate with the highest degree of certainty as a result of recognizing an input character pattern, each character pattern candidate is classified into multiple groups of similar characters, and based on each degree of similarity, each group is identified as originally similar. Learning is performed so that the appropriate character pattern candidate with the maximum degree is obtained as the final character recognition result.
Judgment results of multiple sub-neural networks each judge the character pattern candidate with the highest degree of certainty for each group, and a sub-neural network that includes character pattern candidates with the highest degree of similarity based on each similarity. It is equipped with a neural network that performs learning to obtain the final character recognition result and determines the sub-neural network that includes the character pattern candidate with the highest degree of certainty.

また第2の発明は、上述した発明において、入力文字パ
ターンと複数の文字パターン候補との間で得られた各類
似度を所定のしきい値と比較する比較手段を設け、この
比較手段が第1の出力信号を出力した場合、最大類似度
を得た文字パターン候補を文字認識結果として判定する
とともに、比較手段が第2の出力信号を出力した場合、
サブニューラルネットおよびニューラルネットに最終的
な文字認識結果の判定処理を渡す手段を錫えたものであ
る。
Further, in the above-described invention, a second invention is provided with a comparison means for comparing each degree of similarity obtained between the input character pattern and the plurality of character pattern candidates with a predetermined threshold, and this comparison means If the first output signal is output, the character pattern candidate with the maximum similarity is determined as the character recognition result, and if the comparison means outputs the second output signal,
This system is equipped with a means for passing the final character recognition result judgment process to the sub-neural network and the neural network.

(作 用) 第1の発明の文字認識装置では、各サブニューラルネッ
トおよびニューラルネットに、それぞれ入力文字パター
ンと複数の文字パターン候補との各類似度が入力される
と、各サブニューラル大ツトは、それぞれのグループ内
において、最も確信度の高い文字パターン候補をそれぞ
れ判定する。
(Function) In the character recognition device of the first invention, when each similarity between an input character pattern and a plurality of character pattern candidates is input to each subneural network and each neural network, each subneural large , within each group, determine the character pattern candidate with the highest degree of certainty.

一方、ニューラルネットは、各サブニューラルネットか
ら出力された判定結果のうち最も確信度の高い文字パタ
ーン候補を含むサブニューラルネットを判定(2、これ
により最終的な文字認識結果を決定する。
On the other hand, the neural network determines the sub-neural network containing the character pattern candidate with the highest degree of certainty among the determination results output from each sub-neural network (2), thereby determining the final character recognition result.

また学習時において、各サブニューラルネットは、それ
ぞれのグループ内において、入力文字パターンと複数の
文字パターン候補との各類似度から本来類似度が最大と
なってしかるべき文字パターン候補が最終的な文字認識
結果として得られるよう学習を行い、ニューラルネット
は、各類似度から本来類似度が最大となってしかるべき
文字パターン候補を含むサブニューラルネットの判定結
果が最終的な文字認識結果として決定されるよう学習を
行う。
In addition, during learning, each subneural network selects the appropriate character pattern candidate with the maximum similarity based on the degree of similarity between the input character pattern and multiple character pattern candidates within each group as the final character. Learning is performed to obtain the recognition result, and the neural network determines the final character recognition result as the judgment result of the sub-neural network that contains the character pattern candidate with the maximum similarity from each similarity. Learn how to do this.

したがって、この発明によれば、手書きカナ文字のよう
に文字種類が多く、多くの類似パターンを有(−だ文字
群についても高い正解率で文字認識を行うことができる
Therefore, according to the present invention, it is possible to perform character recognition with a high accuracy rate even for a group of characters such as handwritten kana characters, which have many types of characters and have many similar patterns (-).

また第2の発明では、入力文字パターンと複数の文字パ
ターン候補との間で得られた各類似度を、比較手段にお
い′Cそれぞれ所定のしきい値と比較し、比較手段から
第1の出力信号が出力された場合、最大類似度を得た文
字パターン候補を文字認識結果として判定する。また比
較手段から第2の出力信号が出力された場合、サブニュ
ーラルネットおよびニューラルネットに最終的な文字認
識結果の判定処理を渡すようにしている。
Further, in the second invention, each degree of similarity obtained between the input character pattern and the plurality of character pattern candidates is compared with a predetermined threshold value in the comparison means, and the first output is outputted from the comparison means. When a signal is output, the character pattern candidate with the maximum degree of similarity is determined as the character recognition result. Further, when the second output signal is output from the comparing means, the process of determining the final character recognition result is passed to the sub-neural network and the neural network.

これによれば、サブニューラルネットおよびニューラル
ネットを用いて文字認識結果の判定処理を必要とする文
字を絞り込んで学習することができるので、より一層認
識率の向上を図ることができる。
According to this, since it is possible to narrow down and learn characters that require character recognition result determination processing using the sub-neural network and the neural network, it is possible to further improve the recognition rate.

(実施例) 以下、本発明の実施例を図面に基づいて詳細に説明する
(Example) Hereinafter, an example of the present invention will be described in detail based on the drawings.

第1図はこの発明に係る一実施例の文字認識装置の構成
を説明するためのブロック図である。
FIG. 1 is a block diagram for explaining the configuration of a character recognition device according to an embodiment of the present invention.

同図において、1は帳票上に手書きされたカナ文字等を
光学的に読取ってその文字パターンを得るスキャナ部、
2はスキャナ部1により読取られた入力文字パターンと
のマツチング対象となる文字パターン候補群(この実施
例では「ア」〜「ン」までのカナ文字が不可欠)が登録
されたパターン候補格納部、3はスキャナ部1からの入
力文字パターンどパターン候補格納部2に格納された文
字パターン候補との所定のパターン・マツチングを行っ
てそれぞれの類似度を9出するパターン・マツチング部
、4はパターン・マツチング部3において算出された各
文字パターン候補に対する類似度の組合せから、最も確
からしい文字パターン候補を最終的な文字認識結果とし
て判定する文字判定部、5は文字判定部4において判定
された文字認識結果を格納するデータ格納部である。
In the figure, 1 is a scanner unit that optically reads kana characters etc. handwritten on a form to obtain the character pattern;
2 is a pattern candidate storage unit in which a group of character pattern candidates (in this embodiment, kana characters from “a” to “n” are essential) to be matched with the input character pattern read by the scanner unit 1; Reference numeral 3 denotes a pattern matching unit which performs predetermined pattern matching between the input character pattern from the scanner unit 1 and the character pattern candidates stored in the pattern candidate storage unit 2 to obtain a degree of similarity of 9, and 4 a pattern matching unit. A character determination unit determines the most probable character pattern candidate as the final character recognition result from the combination of similarities for each character pattern candidate calculated in the matching unit 3; 5 is the character recognition determined in the character determination unit 4; This is a data storage unit that stores results.

さて、このような構成の文字認識装置において、上記し
た文字判定部4はニューラルネットを採用して次のよう
に構成される。
Now, in the character recognition device having such a configuration, the character determination section 4 described above employs a neural network and is configured as follows.

第2図はこのニューラルネットを用いて構成された文字
判定部の構成を示している。
FIG. 2 shows the configuration of a character determination section constructed using this neural network.

同図に示すように、この文字判定部4は、判断部11、
制御用ニューラルネット12、複数のサブニューラルネ
ット13〜32(この実施例では19個)、最終判定部
33、学習データベース34を備えて構成される。
As shown in the figure, this character determination section 4 includes a determination section 11,
It is configured to include a control neural network 12, a plurality of sub-neural networks 13 to 32 (19 in this embodiment), a final determination section 33, and a learning database 34.

判断部11は、パターン・マツチングにより算出された
各文字パターン候補に対する類似度の最大値が、予め設
定されたしきい値を越えているか否かを判断j7て、越
えていればその最大類似度を得た文字パターン候補を最
終的な文字認識結果として出力し、越えていなければ制
御用ニューラルネット12およびサブニューラルネット
13〜32に文字認識結果の判定処理を渡す。
The determining unit 11 determines whether the maximum similarity value for each character pattern candidate calculated by pattern matching exceeds a preset threshold j7, and if it exceeds the maximum similarity value. The obtained character pattern candidate is output as the final character recognition result, and if the result is not exceeded, the character recognition result determination processing is passed to the control neural network 12 and the sub-neural networks 13 to 32.

サブニューラルネット13〜32は、各文字パターン候
補を、誤読を招き易い「工、コ、ユ」「ハ、へ、ム」等
の類似文字群のグループ毎に分類し、入力文字パターン
と各文字パターン候補との各類似度から、各グループ毎
に本来類似度が最大となってしかるべき文字パターン候
補が文字認識結果として得られるよう学習を行い、その
学習の結果において、各グループ毎に最も確信度の高い
文字パターン候補の判定を行うものである。
The sub-neural nets 13 to 32 classify each character pattern candidate into groups of similar characters such as "ko, ko, yu" and "ha, he, mu" that are likely to lead to misreading, and compare the input character pattern with each character. Based on each similarity with pattern candidates, learning is performed for each group so that the appropriate character pattern candidate with the maximum similarity is obtained as a character recognition result, and as a result of that learning, the most confident character pattern candidate for each group This is to judge character pattern candidates with a high degree of accuracy.

尚、上述した類似文字群のグルー・ブとしては、その他
に、「ミ、ヨ、ヲ」 「ソ、ツ、す」 「シ、ソ、ン」
 「シ、ル、し」 「チ、テ、う」 「す、テ、ナ」 
「り、フ、ワ」 「コ、二、ユ」 「つ、り、う」「り
、夕、フ」 「ケ、チ、ナ」 「キ、マ、ヤ」「オ、ネ
、ホj 「セ、ヒ、モ」 「ア、ス、ヌ」「ト、ノ、メ
」 「イ、力、口」等がある。
In addition, the groups of similar characters mentioned above include "mi, yo, wo", "so, tsu, su", "shi, so, n"
"S-L-S""T-T-U""S-T-Na"
"R, Fu, Wa""K, Two, Yu""Ts, Ri, U""R, Yu, Fu""Ke, Chi, Na""Ki, Ma, Ya""O, Ne, Hoj" Examples include "Se, Hi, Mo,""A, Su, Nu,""To, No, Me," and "I, Power, Mouth."

制御用のニューラルネット12は、人力文字パターンと
各文字パターン候補との類似度から、本来類似度が最大
となってしかるべき文字パターン候補を含むサブニュー
ラルネット13〜32の判定結果が最終的な認識結果と
して最終判定部33において選択されるよう学習を行い
、その学習の結果において、最も確信度の高い文字パタ
ーン候補を含んだサブニューラルネット13〜32を判
定するものである。
The control neural network 12 determines, based on the degree of similarity between the human-powered character pattern and each character pattern candidate, that the determination results of the sub-neural networks 13 to 32 containing the character pattern candidate with the maximum degree of similarity are the final ones. Learning is performed so that the final determination unit 33 selects the character pattern candidate as the recognition result, and based on the learning result, the sub-neural nets 13 to 32 containing the character pattern candidate with the highest degree of certainty are determined.

全体学習データベース34は、制御用ニューラルネット
12および各サブニューラルネット13〜32での学習
で用いられるデータ、すなわち入力文字パターンと各文
字パターン候補との類似度とこれに対応する正解のデー
タとの組が格納される。またこの全体学習データベース
34に格納された学習データは、学習実行の際、各ニュ
ーラルネット12.13〜32の学習データベース(後
述する)に転送されることになるが、各サブニューラル
ネット13〜32に対しては、データ選別器35を介し
てそれぞれ該当する学習データを選別した上で転送され
る。
The overall learning database 34 contains data used for learning in the control neural network 12 and each sub-neural network 13 to 32, that is, the similarity between the input character pattern and each character pattern candidate and the corresponding correct answer data. The set is stored. In addition, the learning data stored in this overall learning database 34 will be transferred to the learning databases (described later) of each neural net 12.13 to 32 when learning is executed. , the corresponding learning data is sorted through the data sorter 35 and then transferred.

ところで、上述した各ニューラルネット12.13〜3
2では、その学習機能を、例えばパックプロパゲーショ
ンアルゴリズム等の学習アルゴリズムを用いて実現して
いる。
By the way, each neural network 12.13-3 mentioned above
In No. 2, the learning function is realized using a learning algorithm such as a pack propagation algorithm.

第3図は各ニューラルネットの基本構成を示している。FIG. 3 shows the basic configuration of each neural network.

同図に示すように、この実施例のニューラルネット12
.13〜32の構成は、パターン・マツチングにより算
出された各パターン候補に対する類似度がそれぞれ入力
される複数の入力ノードAからなる入力層と、各人力ノ
ードAとアークBを介してネットワークで結合された複
数の中間ノードCからなる中間層と、各中間ノードCと
ア〜りDを介してネットワークで結合され、各パターン
候補に対する類似度からそれぞれの最終的な正解確信度
を示す値を出力する出力ノードEからなる出力層とから
構成されている。
As shown in the figure, the neural network 12 of this embodiment
.. The configurations 13 to 32 include an input layer consisting of a plurality of input nodes A, into which the degree of similarity for each pattern candidate calculated by pattern matching is input, and each human node A is connected in a network via an arc B. The network is connected to an intermediate layer consisting of a plurality of intermediate nodes C, and each intermediate node C is connected to the network via A to D, and outputs a value indicating the final correctness certainty of each pattern candidate based on the similarity to each pattern candidate. and an output layer consisting of an output node E.

また上述した各アークB、Dには、各ノード間の結合の
強さを示す荷重値が設定されており、これらの荷重値は
、次のネットワーク管理部により修正されるようになっ
ている。
Furthermore, a load value indicating the strength of the connection between each node is set for each of the arcs B and D described above, and these load values are modified by the following network management unit.

このネットワーク管理部の構成を第4図を用いて説明す
る。
The configuration of this network management section will be explained using FIG. 4.

同図において、4】は入力ノードAおよび中間ノードC
からそれぞれ出力されたデータを一時的に保持するノー
ド出力値テーブル、42は各アークB、Dに設定された
荷重値を保持する荷重値テーブル、43は各人力ノード
Aや中間ノードCからの出力データにそれぞれ荷重値テ
ーブル42上の対応する荷重値を乗じて積算を行う積算
器、44は個々の中間ノードCや出力ノードEに終結さ
れる積算結果を加算する加算器である。また45は通常
の文字認識において出力された各文字パターン候補に対
する最終的な積算値(類似度)の中から最大値を得た文
字パターン候補を最終的な文字認工結果として判定する
判定器、46は学習時において出力された各文字パター
ン候補に対する最終的な積算値と本来類似度が最大とな
ってしかるべき正解のデータとをそれぞれ取込んで比較
し、それぞれが一致しているかどうかを評価する評価器
、47は評価器46において各データが一致しないと判
定されたとき、当該入力文字パターンに対する次回から
の文学誌1処理において正解を得るような方向性を持っ
て荷重値チープレ42上の各荷重値を修正する荷重値修
正器、48は全体学習データベース33からの学習デー
タを格納する学習データベース、49は学習データベー
ス48の登録内容を管理する学習管理器である。
In the same figure, 4] is input node A and intermediate node C
42 is a load value table that holds the load values set for each arc B and D, and 43 is the output from each manual node A and intermediate node C. An integrator 44 multiplies each data by a corresponding load value on the load value table 42 and performs integration, and 44 is an adder that adds the integration results to each intermediate node C or output node E. Further, 45 is a determination device that determines the character pattern candidate that has obtained the maximum value from among the final integrated values (similarities) for each character pattern candidate output in normal character recognition as the final character recognition result; 46 imports and compares the final integrated value for each character pattern candidate output during learning with the data of the correct answer with the highest degree of similarity, and evaluates whether or not they match. When the evaluator 46 determines that each data does not match, the evaluator 47 calculates the value on the load value cheaple 42 with a direction to obtain a correct answer in the next literary magazine 1 processing for the input character pattern. A load value corrector 48 corrects each load value, a learning database 48 stores learning data from the overall learning database 33, and a learning manager 49 manages registered contents of the learning database 48.

次にこのネットワーク管理部による学習の基本動作を第
5図のフローチャートを用いて説明する。
Next, the basic operation of learning by this network management section will be explained using the flowchart shown in FIG.

まず学習データベース48から、類似度の組合せとこれ
に対応する正解のデータの組を1つずつ抽出しくステッ
プa)、これを制御用ニューラルネット12、サブニュ
ーラルネット13〜32の各人力ノード出力値テーブル
41と評征器46にそれぞれセットする(ステップb)
First, from the learning database 48, extract combinations of similarities and corresponding correct data sets one by one. In step a), the output values of each human node of the control neural network 12 and sub-neural networks 13 to 32 are extracted. Set each on the table 41 and reviewer 46 (step b)
.

さて入力ノード出力値テーブル41に類似度がセットさ
れると、各類似度は入力ノードAから中間ノードCを介
して出力ノードEに至るまでの間において、アークBお
よびアークDにそれぞれ設定された荷重値を用いて積算
、さらに加算され、最終的に各出力ノードEに終結され
たそれぞれの値が各文字パターン候補に対する確からし
さを示す値(確信度)となる(ステップC)。
Now, when the similarity is set in the input node output value table 41, each similarity is set for arc B and arc D from input node A to output node E via intermediate node C. The weight values are integrated and further added, and each value finally sent to each output node E becomes a value (certainty) indicating the probability for each character pattern candidate (step C).

この後、各出力ノードEから出力された各文字パターン
候補に対する値は評価器46に出力される。比較器46
は、各出力ノードEから出力されたデータと正解のデー
タとを比較評価しくステップd)、その比較評価の結果
、両者が一致していなければ、荷重値修正器47を起動
させて荷重値テーブル42における各荷重値を、次回か
らの処理において正解のデータが得られるような方向性
を持って修正する(ステップe)。同時に学習管理器4
9は、今回の文字認識処理における入力類似度の組合せ
と正解のデータとの組を再び学習データとして学習デー
タベース48に格納する。
Thereafter, the values for each character pattern candidate output from each output node E are output to the evaluator 46. Comparator 46
In step d), the data output from each output node E and the correct data are compared and evaluated. If the two do not match as a result of the comparison evaluation, the load value corrector 47 is activated and the load value table is changed. Each load value in step 42 is corrected in a direction that will allow correct data to be obtained in subsequent processing (step e). Learning manager 4 at the same time
9 stores the combination of input similarity and correct data in the current character recognition process in the learning database 48 again as learning data.

全ての文字パターンのサンプルに対する L回目の学習
が終了すると、学習管理器49は、2回目の学習を開始
させるため学習データベース48から再度1組ずつ各類
似度の組合せと正解のデータとの組を抽出し、これらを
各ニューラルネット12.13〜32にそれぞれセット
する。
When the L-th learning for all character pattern samples is completed, the learning manager 49 again retrieves one set of each similarity combination and correct data from the learning database 48 in order to start the second learning. These are extracted and set in each of the neural networks 12, 13 to 32, respectively.

以上の学習動作を延々と繰り返し、全ての文字パターン
のサンプルについて正解のデータが得られるようになっ
た時点で、あるいは所定回数の荷重値修正を終えた時点
で、全ての学習を終了させる(ステップf)。
The above learning operation is repeated endlessly, and all learning is terminated when correct data can be obtained for all character pattern samples, or when the load value has been corrected a predetermined number of times (step f).

次にこの文字認識装置の動作を説明する。Next, the operation of this character recognition device will be explained.

ある手書きカナ文字についてパターン・マツチングを行
い、その結果得た各文字パターン候補に対する類似度の
組合せが文字判定部4に入力されると、判断部11は、
まずその中での最大類似度が予め設定されたしきい値を
越えているか否かを判断する。そして最大類似度がしき
い値を越えていれば、その最大類似度を得た文字パター
ン候補を最終的な文字認識結果として出力する。また最
大類似度がしきい値を越えていなければ、制御用ニュー
ラルネット]2、サブニューラルネット13〜32に文
字認識結果の最終判定処理を渡す。
When pattern matching is performed on a certain handwritten kana character, and the combination of similarities for each character pattern candidate obtained as a result is input to the character determination unit 4, the determination unit 11 performs the following:
First, it is determined whether the maximum similarity among them exceeds a preset threshold. If the maximum similarity exceeds the threshold, the character pattern candidate with the maximum similarity is output as the final character recognition result. If the maximum similarity does not exceed the threshold, the final judgment process of the character recognition result is passed to the control neural network 2 and the sub-neural networks 13 to 32.

制御用ニューラルネット12は、判断部11よりこの処
理を受継ぐと、上記各類似度の組合せから、どのサブニ
ューラルネット13〜32の判定結果が最ら確信度が高
いかを決定17、そのネット番号を最終判定部33に送
る。
When the control neural network 12 inherits this process from the determination unit 11, it determines 17 which sub-neural net 13 to 32 has the highest degree of certainty in the determination result based on the combination of the above-mentioned respective degrees of similarity, The number is sent to the final determination section 33.

一方、各サブニューラルネット13〜32では、それぞ
れ自身のグループに属する文字間で、上記各類似度の組
合せから、入力文字パターンの認工結果として最も確信
度の高い文字パターン候補を決定し、これらを最終判定
部33に送る。
On the other hand, each of the sub-neural networks 13 to 32 determines character pattern candidates with the highest degree of certainty as a recognition result of the input character pattern from the combinations of the respective degrees of similarity between characters belonging to their own groups, and is sent to the final determination section 33.

この結果、最終判定部33は、制御用二二一うルネット
12で決定したサブニューラルネットの判定結果を最終
的な文字認識結果として出力する。
As a result, the final determination unit 33 outputs the determination result of the sub-neural network determined by the control 221 loop 12 as the final character recognition result.

次にこの文字認識装置での学習の具体例を説明する。Next, a specific example of learning using this character recognition device will be explained.

正解が「ユ」である入力文字パターンについて、この文
字を含むサブニューラルネット12〜32において各文
字パターン候補との類似度を算出したところ、 工・・・・・・・・・ 0.5 コ・・・・・・・・・ 0.8 ユ・・・・・・・・0,7 という結果が得られたとする。
Regarding the input character pattern whose correct answer is "Yu", the degree of similarity with each character pattern candidate was calculated in the subneural networks 12 to 32 that include this character. Suppose that the following results are obtained: ......0.8 Yu...0,7.

この場合、本来類似度が最大となってしかるべき文字パ
ターン候補は「コ」ではなく 「ユ」であることから、
学習により、「ユ」の文字パターン候補に対する類似度
の算出結果が「コ」の文字パターン候補に対する類似度
の最終結果よりも高くなるよう、同すブニューラルネッ
!・12〜32における各アークの荷重値を修正する。
In this case, the character pattern candidate with the highest degree of similarity is not "ko" but "yu", so
Through learning, the same neural net! - Correct the load value of each arc in 12-32.

また、上記類似度の組合せから、制御用ニューラルネッ
ト12において、同サブニューラルネット12〜32の
判定結果が最も確信度が高いものとして判定されるよう
該制御用ニューラルネット12における各アークの荷重
値を修正する。
In addition, based on the combination of the above-mentioned similarities, the load value of each arc in the control neural network 12 is determined so that the determination results of the sub-neural nets 12 to 32 are determined as having the highest reliability. Correct.

かくしてこの実施例の文字認識装置によれば、各サブニ
ューラルネット13〜32において、それぞれ類似パタ
ーン毎に分類された文字パターン候補間での学習および
文字認識結果の判定を行い、制御用ニューラルネット1
2において、どのサブニューラルネット〕−3〜32が
最も確信度が高い文字パターン候補を含んでいるかを学
習、判定するようにしたので、手書きカナ文字のように
文字種類が多く、類似文字パターンを多く含んだもので
あっても、高い正解率で文字認識を行うことができる。
Thus, according to the character recognition device of this embodiment, each of the sub-neural networks 13 to 32 performs learning between character pattern candidates classified into similar patterns and determines the character recognition results, and the control neural network 1
In 2, we learned and determined which sub-neural network]-3 to 32 contains the character pattern candidate with the highest degree of certainty. Even if a large number of characters are included, character recognition can be performed with a high accuracy rate.

尚、上述した実施例では、ニューラルネットによる文字
認識を、入力文字パターンと文字パターン候補とのマツ
チングの結果得た最大類似度が、ある]2きい値を越え
ない場合に限り行ったが、その他の方法として、最大類
似度から2番目に高い類似度を差し引いた値をし2きい
値と比較し、その結果から次の動作を決定するようにし
てもよい。
In the above embodiment, character recognition by the neural network was performed only when the maximum similarity obtained as a result of matching the input character pattern and the character pattern candidate did not exceed the threshold value 2. As a method, the value obtained by subtracting the second highest similarity from the maximum similarity may be compared with two thresholds, and the next action may be determined from the result.

また、この実施例では手書きカナ文字の認識について説
明したが、本発明はこれに限定されるものではなく、例
えば、ローマ字や漢字等の認識にも適用が可能である。
Further, although this embodiment describes the recognition of handwritten kana characters, the present invention is not limited thereto, and can also be applied to the recognition of Roman characters, kanji, etc., for example.

[発明の効果] 以上説明したように本発明の文字認識装置によれば、手
書きカナ文字のように文字種類が多く、多くの類似パタ
ーンを有した文字群についても高い正解率で文字認識を
行うことができる。
[Effects of the Invention] As explained above, according to the character recognition device of the present invention, character recognition is performed with a high accuracy rate even for character groups such as handwritten kana characters, which have many types of characters and have many similar patterns. be able to.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の一実施例の文字認識装置の全体構成を
説明するためのブロック図、第2図は第1図におけるニ
ューラルネットを用いた文字判定部の構成を説明するた
めのブロック図、第3図はニューラルネットの基本構成
を示す図、第4図は各ニューラルネットにおけるネット
ワーク管理部の構成を説明するためのブロック図、第5
図は第4図のネットワーク管理部による学習の基本動作
を示すフローチャートである。 1]・・・判断部、12・・・制御用ニューラルネット
、13〜32・・・サブニューラルネット、33・・・
最終判定部。 出願人     株式会社 東芝 代理人 弁理士 須 山 佐 − 第1図 ζ 第2図 第3図
FIG. 1 is a block diagram for explaining the overall configuration of a character recognition device according to an embodiment of the present invention, and FIG. 2 is a block diagram for explaining the configuration of a character determination section using a neural network in FIG. 1. , Fig. 3 is a diagram showing the basic configuration of the neural network, Fig. 4 is a block diagram for explaining the configuration of the network management section in each neural network, and Fig. 5 is a diagram showing the basic configuration of the neural network.
This figure is a flowchart showing the basic operation of learning by the network management section of FIG. 4. 1]... Judgment unit, 12... Control neural network, 13-32... Sub neural network, 33...
Final judgment part. Applicant Toshiba Corporation Patent Attorney Sasa Suyama - Figure 1 ζ Figure 2 Figure 3

Claims (2)

【特許請求の範囲】[Claims] (1)入力文字パターンと複数の文字パターン候補との
各類似度から前記入力文字パターンの認識結果として最
も確信度の高い文字パターン候補を判定する文字認識装
置において、 前記各文字パターン候補を類似文字群のグループ毎に複
数分類し、前記各類似度から、各グループ毎に本来類似
度が最大となってしかるべき文字パターン候補が最終的
な文字認識結果として得られるよう学習を行い、前記各
グループ毎に最も確信度の高い文字パターン候補をそれ
ぞれ判定する複数のサブニューラルネットと、 前記各類似度から、本来類似度が最大となってしかるべ
き文字パターン候補を含む前記サブニューラルネットの
判定結果が前記文字認識結果となるよう学習を行い、最
も確信度の高い文字パターン候補を含むサブニューラル
ネットを判定するニューラルネットとを具備したことを
特徴とする文字認識装置。
(1) In a character recognition device that determines a character pattern candidate with the highest degree of certainty as a recognition result of the input character pattern from each degree of similarity between an input character pattern and a plurality of character pattern candidates, each of the character pattern candidates is converted into a similar character. A plurality of classifications are performed for each group, and learning is performed so that character pattern candidates with the maximum similarity for each group are obtained as the final character recognition results based on the respective degrees of similarity. A plurality of sub-neural networks each determines a character pattern candidate with the highest degree of certainty for each case, and a determination result of the sub-neural network that includes a character pattern candidate with the highest degree of similarity based on the respective degrees of similarity is determined. A character recognition device comprising: a neural network that performs learning to obtain the character recognition result and determines a sub-neural network that includes a character pattern candidate with the highest degree of certainty.
(2)請求項1記載の文字認識装置において、入力文字
パターンと複数の文字パターン候補との間で得られた各
類似度を所定のしきい値と比較する比較手段を設け、こ
の比較手段が第1の出力信号を出力した場合、最大類似
度を得た文字パターン候補を文字認識結果として判定す
るとともに、前記比較手段が第2の出力信号を出力した
場合、サブニューラルネットおよびニューラルネットに
最終的な文字認識結果の判定処理を渡す手段を備えたこ
とを特徴とする文字認識装置。
(2) The character recognition device according to claim 1, further comprising a comparison means for comparing each degree of similarity obtained between the input character pattern and the plurality of character pattern candidates with a predetermined threshold; When the first output signal is output, the character pattern candidate with the maximum similarity is determined as the character recognition result, and when the comparison means outputs the second output signal, the sub-neural network and the neural network are finalized. A character recognition device characterized by comprising means for passing a determination process of a character recognition result.
JP1121079A 1989-05-15 1989-05-15 Character recognition device Expired - Lifetime JP2680419B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1121079A JP2680419B2 (en) 1989-05-15 1989-05-15 Character recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1121079A JP2680419B2 (en) 1989-05-15 1989-05-15 Character recognition device

Publications (2)

Publication Number Publication Date
JPH02300876A true JPH02300876A (en) 1990-12-13
JP2680419B2 JP2680419B2 (en) 1997-11-19

Family

ID=14802336

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1121079A Expired - Lifetime JP2680419B2 (en) 1989-05-15 1989-05-15 Character recognition device

Country Status (1)

Country Link
JP (1) JP2680419B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5438629A (en) * 1992-06-19 1995-08-01 United Parcel Service Of America, Inc. Method and apparatus for input classification using non-spherical neurons
US5452399A (en) * 1992-06-19 1995-09-19 United Parcel Service Of America, Inc. Method and apparatus for input classification using a neuron-based voting scheme
JP2000251057A (en) * 1999-03-01 2000-09-14 Nippon Telegr & Teleph Corp <Ntt> Color reproduction method and apparatus for input device, and recording medium recording program of this method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5438629A (en) * 1992-06-19 1995-08-01 United Parcel Service Of America, Inc. Method and apparatus for input classification using non-spherical neurons
US5452399A (en) * 1992-06-19 1995-09-19 United Parcel Service Of America, Inc. Method and apparatus for input classification using a neuron-based voting scheme
US5638491A (en) * 1992-06-19 1997-06-10 United Parcel Service Of America, Inc. Method and apparatus for hierarchical input classification using a neural network
US5664067A (en) * 1992-06-19 1997-09-02 United Parcel Service Of America, Inc. Method and apparatus for training a neural network
US5974404A (en) * 1992-06-19 1999-10-26 United Parcel Service Of America, Inc. Method and apparatus for input classification using a neural network
JP2000251057A (en) * 1999-03-01 2000-09-14 Nippon Telegr & Teleph Corp <Ntt> Color reproduction method and apparatus for input device, and recording medium recording program of this method

Also Published As

Publication number Publication date
JP2680419B2 (en) 1997-11-19

Similar Documents

Publication Publication Date Title
Hosang et al. Learning non-maximum suppression
Moreira et al. Improved pairwise coupling classification with correcting classifiers
US20230039734A1 (en) Systems and methods of data augmentation for pre-trained embeddings
JP2940933B2 (en) Pattern recognition method
JP3088171B2 (en) Self-organizing pattern classification system and classification method
US20200334501A1 (en) Robust training of large-scale object detectors with a noisy dataset
US12367427B2 (en) Methods, systems, and media for robust classification using active learning and domain knowledge
Lerner et al. A classification-driven partially occluded object segmentation (CPOOS) method with application to chromosome analysis
JP2020052935A (en) Method of creating learned model, method of classifying data, computer and program
Rasekh et al. Ecor: Explainable clip for object recognition
KR102452814B1 (en) Methods for analyzing and extracting issues in documents
JPH02300876A (en) Character recognizing device
KR20210060978A (en) Training Data Quality Assessment Technique for Machine Learning-based Software
JPH05225163A (en) Neural network system and learning method of neural network
JP2021189701A (en) Information processing program, information processing device and information processing method
US20200005182A1 (en) Selection method, selection apparatus, and recording medium
JP4997524B2 (en) Multivariable decision tree construction system, multivariable decision tree construction method, and program for constructing multivariable decision tree
JPH03294983A (en) Character recognizing device
Ledezma et al. Empirical evaluation of optimized stacking configurations
JPH0388090A (en) Device for recognizing character
JPH03220686A (en) Character recognizing device
JPH03164886A (en) Character recognizing device
KR102758186B1 (en) Method of deceting contaminated label data usinig learning dynamics of depp learning model
Ohashi et al. Unbiased scene graph generation using predicate similarities
CN115599914B (en) A method, system and electronic equipment for automatically analyzing the cause of human-machine accidents

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20070801

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080801

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090801

Year of fee payment: 12

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090801

Year of fee payment: 12