JPH02129782A - Character recognizing method - Google Patents
Character recognizing methodInfo
- Publication number
- JPH02129782A JPH02129782A JP63283442A JP28344288A JPH02129782A JP H02129782 A JPH02129782 A JP H02129782A JP 63283442 A JP63283442 A JP 63283442A JP 28344288 A JP28344288 A JP 28344288A JP H02129782 A JPH02129782 A JP H02129782A
- Authority
- JP
- Japan
- Prior art keywords
- character
- learning
- character pattern
- recognition
- similarity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Character Discrimination (AREA)
Abstract
Description
【発明の詳細な説明】
[発明の目的]
(産業上の利用分野)
本発明は、例えば光学的文字読取装置等において用いら
れる文字認識方法に関する。DETAILED DESCRIPTION OF THE INVENTION [Object of the Invention] (Industrial Application Field) The present invention relates to a character recognition method used in, for example, an optical character reading device.
(従来の技術)
近年、光学的文字読取装置等においては、パターン・マ
ツチング等の文字認識技術の向上により、活字の読取り
に限ることなく手書き文字の読取りを行うことも可能と
されている。(Prior Art) In recent years, improvements in character recognition technology such as pattern matching have made it possible for optical character reading devices to read not only printed characters but also handwritten characters.
このような装置では、入力文字パターンと複数の文字パ
ターン候補とのパターン・マツチングによりそれぞれの
類似度を算出し、その中で最大類似度を得た文字パター
ン候補を最終的な文字認識結果として判定し出力するこ
とで文字認識が行われている。In such devices, the degree of similarity between an input character pattern and multiple character pattern candidates is calculated by pattern matching, and the character pattern candidate with the highest degree of similarity is determined as the final character recognition result. Character recognition is performed by outputting the following characters.
しかしながら、このような文字認識方法では、文字パタ
ーンの特徴の変化により、入力文字パターンと正解の文
字パターン候補との類似度がその他の文字パターン候補
との類似度よりも低くなってしまう事態が多々生じ、こ
れにより誤った文字認識が行われてしまうという難点が
ある。However, in such character recognition methods, due to changes in character pattern characteristics, the degree of similarity between the input character pattern and the correct character pattern candidate is often lower than the degree of similarity between the input character pattern and the correct character pattern candidate. This poses a problem in that erroneous character recognition may occur.
このことから従来からの文字認識装置では、例えば入力
文字パターンと文字パターン候補とのマツチング基準そ
のものに文字パターンの特徴の変化に応じた修正や追加
を加えることにより、最低限の認識率を確保するように
していたが、このようにマツチング基準そのものを修正
するためには多大な手間と時間を必要とするので必ずし
も望ましい方法とはいえない。For this reason, conventional character recognition devices ensure a minimum recognition rate by, for example, making modifications or additions to the matching criteria for input character patterns and character pattern candidates in accordance with changes in character pattern characteristics. However, it is not necessarily a desirable method because it requires a great deal of effort and time to modify the matching criteria itself in this way.
また最近、学習アルゴリズムを用いたニューラルネット
を用いて文字認識結果の判定を行う方法が提案されてい
る。Recently, a method has been proposed in which character recognition results are determined using a neural network using a learning algorithm.
この方法では、文字パターンの特徴が変化にしても、学
習アルゴリズムによるニューラルネットの修正により、
パターン・マツチングの際のマツチング基準そのものを
変更することなく、安定した文字認識を行うことが可能
となる。In this method, even if the characteristics of the character pattern change, the learning algorithm corrects the neural network.
Stable character recognition can be performed without changing the matching standard itself during pattern matching.
ところでこのような文字認識方法では、ニューラルネッ
トの修正後、その前まで正しく判断されていた文字パタ
ーンが正しく判断できなくなることが懸念されている。However, with such character recognition methods, there is a concern that after the neural network is modified, character patterns that were previously correctly determined may no longer be correctly determined.
このような場合の対策としては、例えば修正前において
正しく判断できた文字パターンを全て所定のデータベー
スに登録しておき、これらの文字パターンが影響を受け
ないように監視しなからニューラルネットを修正する等
の方法があるが、いずれにしても単一のニューラルネッ
トを用いて全ての文字パターンに対して正解のデータを
得るには限界があり、認識の対象となる文字が増加する
と、ニューラルネットの修正に多大な時間が費されると
いう問題があった。As a countermeasure in such a case, for example, register all the character patterns that were correctly determined before modification in a predetermined database, and then modify the neural network after monitoring these character patterns so that they are not affected. However, in any case, there is a limit to obtaining correct data for all character patterns using a single neural network, and as the number of characters to be recognized increases, the neural network There was a problem in that a large amount of time was spent on corrections.
(発明が解決しようとする課題)
上述したように従来からのニューラルネットを用いた文
字認識方法では、良好に文字認識を行うことのできる文
字数に限界があり、しかもその文字数が増加するに従い
、ニューラルネットの修正に多大な時間がかかるように
なるという問題があった。(Problems to be Solved by the Invention) As mentioned above, in the conventional character recognition method using a neural network, there is a limit to the number of characters that can be successfully recognized. There was a problem in that it took a lot of time to modify the network.
本発明は上述した課題を解決するためのもので、認識の
対象となる文字の数が増加しても、これらの文字認識を
複数のニューラルネットで分担して行うようにすること
で、短時間でニューラルネットの学習を完了させること
のできる文字認識方法の提供を目的としている。The present invention is intended to solve the above-mentioned problems.Even if the number of characters to be recognized increases, the recognition of these characters can be divided among multiple neural networks, thereby reducing the time required for recognition. The aim is to provide a character recognition method that can complete the training of a neural network.
[発明の構成]
、(課題を解決するための手段)
第1の発明は上記した目的を達成するために、入力文字
パターンと複数の文字パターン候補との各類似度から入
力文字パターンの認識結果として最も確信度の高い文字
パターン候補を複数のニューラルネットを用いて判定す
る方法であって、各入力文字パターンに対する認識結果
の判定を、複数のニューラルネットおいて分担して行う
ようにしたものである。[Structure of the Invention] (Means for Solving the Problem) In order to achieve the above-mentioned object, the first invention provides a recognition result of an input character pattern based on each degree of similarity between the input character pattern and a plurality of character pattern candidates. This method uses multiple neural networks to determine the character pattern candidate with the highest degree of certainty, and the recognition results for each input character pattern are divided among the multiple neural networks. be.
また第2の発明は上記した目的を達成するために、入力
文字パターンと複数の文字パターン候補との各類似度か
ら入力文字パターンの認識結果として最も確信度の高い
文字パターン候補を複数のニューラルネットを用いて判
定する方法であって、各類似度の内容に応じて、認識結
果の判定に直接供されるニューラルネットを決定するよ
うにしたものである。In addition, in order to achieve the above-mentioned object, the second invention uses a plurality of neural networks to select a character pattern candidate with the highest degree of certainty as a recognition result of the input character pattern from each degree of similarity between the input character pattern and a plurality of character pattern candidates. In this method, a neural network that is directly used for determining the recognition result is determined according to the content of each degree of similarity.
さらに第3の発明は上記した目的を達成するために、入
力文字パターンと複数の文字パターン候補との各類似度
から入力文字パターンの認識結果として最も確信度の高
い文字パターン候補を複数の二二一うルネットを用いて
判定する方法であって、認識結果の判定を、判定の対象
となる文字毎に複数のニューラルネットでそれぞれ分担
して行うようにしたものである。Furthermore, in order to achieve the above-mentioned object, the third invention selects a plurality of character pattern candidates with the highest degree of certainty as a recognition result of the input character pattern from each degree of similarity between the input character pattern and the plurality of character pattern candidates. This is a method of making a judgment using a neural network, in which a plurality of neural networks divide the judgment of the recognition result for each character to be judged.
(作 用)
すなわち第1の発明では、各入力文字パターンに対する
認識結果の判定を、複数のニューラルネットおいて分担
して行うようにしたので、認識の対象となる文字の数が
増加しても、短時間で二ューラルネットの学習を完了さ
せることができる。(Function) In other words, in the first invention, the determination of recognition results for each input character pattern is shared among multiple neural networks, so even if the number of characters to be recognized increases. , it is possible to complete learning of a neural network in a short time.
また第2の発明では、各類似度の内容に応じてぃ認識結
果の判定に直接供されるニューラルネットを決定するよ
うにしたので、やはり短時間でニューラルネットの学習
を完了させることができる。Further, in the second invention, since the neural network to be directly used for determining the recognition result is determined according to the contents of each degree of similarity, the learning of the neural network can also be completed in a short time.
さらに第3の発明では、認識結果の判定を、判定の対象
となる文字毎に複数のニューラルネットでそれぞれ分担
して行うようにしたので、やはりニューラルネットの短
時間学習が可能となる。Furthermore, in the third aspect of the invention, since the recognition results are determined by a plurality of neural networks for each character to be determined, short-term learning of the neural networks is possible.
(実施例) 以下、本発明の実施例を図面に基づいて説明する。(Example) Embodiments of the present invention will be described below based on the drawings.
第1図は本発明に係る一実施例の文字認識方法を採用し
た文字認識装置の構成を説明するためのブロック図であ
る。FIG. 1 is a block diagram for explaining the configuration of a character recognition device that employs a character recognition method according to an embodiment of the present invention.
同図において、1は帳票上に手書きされた文字を光学的
に読取って文字パターンを得るスキャナ部、2はスキャ
ナ部1により読取られた文字パターンとのマツチング対
象となる文字パターン候補群が登録されたパターン候補
格納部、3はスキャナ部1からの入力文字パターンとパ
ターン候補格納部2に格納された文字パターン候補との
所定のパターン・マツチングを行ってそれぞれの類似度
を算出するパターン・マツチング部、4はパターン・マ
ツチング部3において算出された各文字パターン候補に
対する類似度の組合せから、最も確からしい文字パター
ン候補を文字認識結果として判定する判定部、5は判定
部4において判定された文字認識結果を格納するデータ
格納部である。In the figure, 1 is a scanner unit that optically reads characters handwritten on a form to obtain a character pattern, and 2 is a registered character pattern candidate group to be matched with the character pattern read by the scanner unit 1. 3 is a pattern matching unit that performs predetermined pattern matching between the input character pattern from the scanner unit 1 and the character pattern candidates stored in the pattern candidate storage unit 2 to calculate the similarity of each. , 4 is a determination unit that determines the most probable character pattern candidate as a character recognition result from the combination of similarities for each character pattern candidate calculated in the pattern matching unit 3, and 5 is a character recognition determined in the determination unit 4. This is a data storage unit that stores results.
ところで上述した判定部4は、各文字パターンに対する
認識結果の判定をそれぞれ分担して行うことができるよ
う複数のニューラルネットを個々の判定器として備えて
構成されている。By the way, the above-mentioned determining section 4 is configured to include a plurality of neural networks as individual determining devices so that the recognition results for each character pattern can be divided and determined.
そして各ニューラルネットは、正しい文字認識の判定が
行われなかった場合の入力文字パターンを対象に、パッ
クプロパゲーションアルゴリズム等の学習アルゴリズム
を用いて、次回からの判定において正しい文字認識結果
が得られるような方向性を持って修正されるようになっ
ている。Then, each neural network uses a learning algorithm such as a pack propagation algorithm to target the input character pattern when a correct character recognition judgment is not made, so that correct character recognition results can be obtained in the next judgment. It has been revised with a certain direction in mind.
第2図は上述したニューラルネットの構成を示している
。FIG. 2 shows the configuration of the neural network described above.
同図に示すように、このニューラルネットにおけるネッ
トワーク構成は、パターン・マツチングにより算出され
た各パターン候補に対する類似度がそれぞれ入力される
複数の入力ノードAからなる入力層と、各入力ノードA
とアークBを介してネットワークで結合された複数の中
間ノードCからなる中間層と、各中間ノードCとアーク
Dを介してネットワークで結合され、各パターン候補に
対する類似度からそれぞれの最終的な正解確信度を示す
値を出力する出力ノードEからなる出力層とから構成さ
れている。As shown in the figure, the network configuration of this neural network consists of an input layer consisting of a plurality of input nodes A into which similarity degrees for each pattern candidate calculated by pattern matching are input, and each input node A.
and an intermediate layer consisting of a plurality of intermediate nodes C connected in a network via arc B, and each intermediate node C and arc D connected in a network, and each final correct answer is determined based on the similarity for each pattern candidate. and an output layer consisting of an output node E that outputs a value indicating the confidence level.
また上述した各アークBSDには1、各ノード間の結合
の強さを示す荷重値が設定されており、これらの荷重値
は、次のネットワーク管理部により修正されるようにな
っている。Further, each arc BSD described above has a load value 1 indicating the strength of the connection between each node, and these load values are modified by the next network management unit.
このネットワーク管理部の構成を第3図を用いて説明す
る。The configuration of this network management section will be explained using FIG. 3.
同図において、11は入力ノードAおよび中間ノードC
からそれぞれ出力されたデータを一時的に保持するノー
ド出力値テーブル、12は各アークB、Dに設定された
荷重値を保持する荷重値テーブル、13は各入力ノード
Aや中間ノードCからの出力データにそれぞれ荷重値テ
ーブル12上の対応する荷重値を乗じてm算を行う積算
器、14は個々の中間ノードCや出力ノードEに終結さ
れる積算結果を加算する加算器である。また15は通常
の文字認識において最大類似度を出力した出力ノードE
に対応する文字パターン候補を文字認識結果として判定
する判定器、16は学習時において各出力ノードEより
出力された各文字パターン候補に対する最終的な積算値
と本来類似度が最大となってしかるべき正解のデータと
をそれぞれ取込んで比較し、それぞれが一致しているか
どうかを評価する評価器、17は評価器16において各
データが一致しないと判定されたとき、当該入力文字パ
ターンに対する次回からの文字認識処理において正解を
得るような方向性を持って荷重値テーブル12上の各荷
重値を修正する荷重値修正器、18は自身のニューラル
ネットに割当てられた文字パターンに対する各類似度の
組合せとこれに対応する正解のデータとを学習データと
して格納する学習データベース、19は学習データベー
ス18の登録内容を管理する学習管理器である。In the same figure, 11 is an input node A and an intermediate node C
12 is a load value table that holds the load values set for each arc B and D, and 13 is an output from each input node A and intermediate node C. An integrator 14 performs m calculation by multiplying each data by a corresponding load value on the load value table 12, and an adder 14 adds up the integration results that are terminated at each intermediate node C or output node E. 15 is the output node E that outputs the maximum similarity in normal character recognition.
The determiner 16 determines the character pattern candidate corresponding to the character pattern candidate as a character recognition result, and the final integrated value for each character pattern candidate output from each output node E during learning should have the maximum degree of similarity. An evaluator 17 takes in and compares each data with the correct answer and evaluates whether or not they match.When the evaluator 16 determines that the data do not match, the evaluator 17 calculates the next time for the input character pattern. A weight value corrector 18 corrects each weight value on the weight value table 12 in a direction that will obtain the correct answer in character recognition processing; A learning database 19 stores the corresponding correct answer data as learning data, and a learning manager 19 manages the registered contents of the learning database 18.
第4図は上述した複数のニューラルネットを備えて構成
された判定部4全体の詳細を示している。FIG. 4 shows details of the entire determination section 4, which is configured with the plurality of neural networks described above.
同図において、21はそれぞれ個々の判定器を構成する
ニューラルネットを示しており、22は各ニューラルネ
ット21の判定結果から最終的な文字認識結果を判定す
る総合判定器、23は認識の対象となる全ての文字パタ
ーンに関する学習データが登録される全体学習データベ
ース、24は全体学習データベース23に登録された学
習データベースを各ニューラルネット21内の学習デー
タベース18にそれぞれ分割して登録するための学習デ
ータ分割器、25は総合判定器22の判定結果と全体学
習データベース23から抽出された学習データのうちの
正解のデータとを比較し、それぞれが一致するか否かを
評価する総合評礁器である。In the figure, numeral 21 indicates a neural network constituting each individual judger, 22 a comprehensive judger that judges the final character recognition result from the judgment result of each neural net 21, and 23 a recognition target. 24 is a learning data division for dividing and registering the learning database registered in the whole learning database 23 into the learning database 18 in each neural network 21. A device 25 is a comprehensive evaluation device that compares the judgment results of the comprehensive judgment device 22 with correct data among the learning data extracted from the overall learning database 23, and evaluates whether or not they match.
なおここで全体学習データベース23に登録された学習
データをどのように各ニューラルネット21に分割する
かは予め自由に設定できるものとする。Here, it is assumed that how the learning data registered in the overall learning database 23 is divided into each neural network 21 can be freely set in advance.
次にこの実施例装置の動作を説明する。Next, the operation of this embodiment device will be explained.
まず認識の対象となる文字パターンのサンプルを幾つか
集め、これらのパターンイメージをスキャナ部1で順次
読取らせる。この後、パターン・マツチング部3におい
て、入力文字パターンと各文字パターン候補とのパター
ン・マツチングが行われることにより、各文字パターン
候補に対するそれぞれの類似度が判定部4に出力される
。First, several samples of character patterns to be recognized are collected, and these pattern images are sequentially read by the scanner section 1. Thereafter, the pattern matching unit 3 performs pattern matching between the input character pattern and each character pattern candidate, thereby outputting the degree of similarity for each character pattern candidate to the determination unit 4.
通常の文字認識では、この後、判定部4は入力された全
ての類似度データの中から最大類似度を得た文字パター
ン候補を判定し、これを最終的な文字認識結果としてデ
ータ格納部5に出力するが、学習を行う場合は次のよう
に処理が行われる。これを第5図のフローチャートを用
いて説明する。In normal character recognition, the determining unit 4 then determines the character pattern candidate that has obtained the maximum similarity from all the input similarity data, and uses this as the final character recognition result in the data storage unit 4. However, when learning is performed, the processing is performed as follows. This will be explained using the flowchart shown in FIG.
まず、パターン・マツチング部3において求められた各
文字パターン候補に対する類似度の組合せは、その類似
度の組合せに対して最終的に得られることが望ましい正
解のデータとともに学習データとして学習データベース
18に登録される。First, the combination of similarities for each character pattern candidate found in the pattern matching section 3 is registered in the learning database 18 as learning data along with correct data that is preferably finally obtained for the combination of similarities. be done.
この後、学習データベース18に登録された全ての学習
データを、学習データベース分割器24において分割し
くステップa)、分割された各学習データをそれぞれ各
ニューラルネット21の学習データベース18に割り当
てる(ステップb)。Thereafter, all the learning data registered in the learning database 18 are divided by the learning database divider 24 (step a), and each divided learning data is assigned to the learning database 18 of each neural network 21 (step b). .
学習の実行は、各学習データベース18から、それぞれ
類似度の組合せとこれに対応する正解のデータを1組ず
つ抽出しくステップc)、これらを各ニューラルネット
21の入力ノード出力値テーブル11と評価器16にそ
れぞれセットすることにより開始される(ステップd)
。Execution of learning involves extracting one set of similarity combinations and the corresponding correct answer data from each learning database 18 (step c), and applying these to the input node output value table 11 of each neural network 21 and the evaluator. 16 (step d).
.
さて入力ノード出力値テーブル11に類似度がセットさ
れると、各類似度は入力ノードAから中間ノードCを介
して出力ノードEに至るまでの間において、アークBお
よびアークDにそれぞれ設定された荷重値を用いて積算
、さらに加算され(ステップe)、この結果、最終的に
各出力ノードEに終結されたそれぞれの値が各文字パタ
ーン候補に対する確からしさを示す値(確信度)となる
。Now, when the similarity is set in the input node output value table 11, each similarity is set for arc B and arc D from input node A to output node E via intermediate node C. The weight values are integrated and further added (step e), and as a result, each value finally delivered to each output node E becomes a value (certainty) indicating the probability for each character pattern candidate.
この後、各出力ノードEから出力された各文字パターン
候補に対する値は評価器16に出力される。評価器16
は、その各出力ノードEから出力されたデータと正解の
データとを比較評価しくステップf)、その結果両者が
一致していなければ、荷重値修正器17を起動させて荷
重値テーブル12における各荷重値を修正する(ステッ
プg)。Thereafter, the values for each character pattern candidate output from each output node E are output to the evaluator 16. Evaluator 16
compares and evaluates the data output from each output node E with the correct data (step f), and if the two do not match, activates the load value corrector 17 and changes each of the data in the load value table 12. Modify the load value (step g).
同時に学習管理器19は、今回の学習における入力類似
度の組合せと正解のデータとを再度学習データとして学
習データベース18に格納する。At the same time, the learning manager 19 stores the input similarity combination and correct answer data in the current learning in the learning database 18 again as learning data.
全ての文字パターンのサンプルに対する 1回目の学習
が終了すると、学習管理器19は、2回目の学習を開始
させるため学習データベース18から再度1組ずつ各類
似度の組合せと正解のデータとを抽出し、これらを各ニ
ューラルネット21にそれぞれセット、する。When the first learning for all character pattern samples is completed, the learning manager 19 again extracts each similarity combination and correct answer data one by one from the learning database 18 in order to start the second learning. , these are set in each neural net 21, respectively.
以上の学習動作を延々と繰り返し、全ての文字パターン
のサンプルについて正解のデータが得られるようになっ
た時点で、あるいは所定回数の荷重値修正を終えた時点
で、全ての学習を終了させる(ステップh)。The above learning operation is repeated endlessly, and all learning is terminated when correct data can be obtained for all character pattern samples, or when the load value has been corrected a predetermined number of times (step h).
かくしてこの実施例の文字認識装置によれば、各入力文
字パターンに対する判定を、複数のニューラルネット2
1においてそれぞれ分担して行うようにしたので、認識
の対象となる文字パターンの数が増加しても、短時間で
ニューラルネット21の修正を完了させることが可能と
なる。Thus, according to the character recognition device of this embodiment, the judgment for each input character pattern is performed using a plurality of neural networks 2.
1, the correction of the neural network 21 can be completed in a short time even if the number of character patterns to be recognized increases.
次に本発明の他の実施例について説明する。Next, other embodiments of the present invention will be described.
第6図は本発明に係るさらに他の実施例の文字認識装置
の判定部の構成を示しており、その他の部分については
先に説明した実施例と同じである。FIG. 6 shows the configuration of the determining section of a character recognition device according to yet another embodiment of the present invention, and the other parts are the same as those in the previously described embodiment.
同図に示すように、この文字認識装置における判定部は
、入力文字パターンと各文字パターン候補とのパターン
・マツチングである値以上(例えば0.9以上)の類似
度を1つでも得た場合の文字パターンのみを対象に、次
回からの文字認識において正解のデータが得られるよう
な方向性を持つて学習を行う第1のニューラルネット3
1と、逆にパターン・マツチングである値以上の類似度
が1つとして得られなかった場合の文字パターンのみを
対象に学習を行う第2のニューラルネット32とを主要
構成部としている。As shown in the figure, if the determination unit in this character recognition device obtains at least one similarity of a certain value or more (for example, 0.9 or more) by pattern matching between the input character pattern and each character pattern candidate, A first neural network 3 that performs learning in a direction that allows correct data to be obtained in character recognition from the next time on only the character patterns of
1 and, conversely, a second neural network 32 that performs learning only on character patterns when no similarity greater than a certain value is obtained by pattern matching.
また33は学習データベースであり、この学習データベ
ース33には、認識すべき全ての文字パターンを対象と
した学習データ、すなわち入力文字パターンと各文字パ
ターン候補とのそれぞれの類似度とこれに対応する正解
のデータとの組が登録される。Further, 33 is a learning database, and this learning database 33 contains learning data for all character patterns to be recognized, that is, the respective degrees of similarity between the input character pattern and each character pattern candidate, and the corresponding correct answers. A pair with the data of is registered.
そしてこの学習データベース33に登録された学習デー
タ(類似度)をどちらのニューラルネット31.32に
割当てるかはルール34により決定されるようになって
いる。A rule 34 determines to which neural network 31 or 32 the learning data (similarity) registered in the learning database 33 is assigned.
さらに35は評価器であり、この評価器35は、第1ま
たは第2のニューラルネット31.32のどちらかから
出力された判定結果と学習データベース33に登録され
た正解のデータとが一致するか否かを評価するためのも
のである。すなわちこの評価器35において両者が一致
しないと評価された場合は、判定で用いた側のニューラ
ルネット31.32における荷重値を修正して学習を進
める。Furthermore, 35 is an evaluator, and this evaluator 35 determines whether the judgment result output from either the first or second neural network 31 or 32 matches the correct answer data registered in the learning database 33. This is to evaluate whether or not it is true. That is, if the evaluator 35 evaluates that the two do not match, the learning proceeds by correcting the weight values in the neural networks 31 and 32 used in the determination.
次にこの実施例装置の動作を説明する。Next, the operation of this embodiment device will be explained.
まず“0”から“9”までの手書き文字を認識する場合
を例にとって説明する。First, an example will be explained in which handwritten characters from "0" to "9" are recognized.
ここで正解が“4″である入力文字パターンに対し各文
字パターン候補との類似度を算出したところ、
0・・・・・・・・・ 0.1
1・・・・・・・・・ 0.1
2・・・・・・・・・ 0.1
3・・・・・・・・・ 0.2
4・・・・・・・・・ 0.7
5・・・・・・・・・ 0.8
6・・−・・・・・・0.3
7・・・・・・・・・ 0.1
8・・・・・・・・・0.1
9・・・・・・・・・0.1
という結果が得られたとする。Here, when we calculated the degree of similarity with each character pattern candidate for the input character pattern whose correct answer is "4", we found: 0...... 0.1 1... 0.1 2・・・・・・・・・ 0.1 3・・・・・・・・・ 0.2 4・・・・・・・・・ 0.7 5・・・・・・・・・・・・ 0.8 6・・・・・・・・・0.3 7・・・・・・・・・ 0.1 8・・・・・・・・・0.1 9・・・・・・Assume that a result of 0.1 is obtained.
この場合、最大の類似度が0.8でありしかもその最大
類似度を得たの文字パターン候補は“4”ではなく ′
5”であることから、ここでは“4”の文字パターン候
補に対する類似度を5″の文字パターン候補に対する類
似度よりも確信度が高いものとして判定がなされるよう
に第2のニューラルネット32における各アークの荷重
値を修正することが必要となる。In this case, the maximum similarity is 0.8, and the character pattern candidate that obtained the maximum similarity is not “4” but ′
5'', the second neural network 32 determines that the degree of similarity to the character pattern candidate ``4'' is higher in certainty than the degree of similarity to the character pattern candidate 5''. It is necessary to modify the load value of each arc.
この実施例装置では、上記した各文字パターン候補に対
する類似度とこれに対応する正解のデータとを学習デー
タとして用いて、次のような学習を各ニューラルネット
31.32において実行させる。In this embodiment, the following learning is performed in each neural network 31 and 32 using the above-described similarities for each character pattern candidate and the corresponding correct answer data as learning data.
まず認識の対象となる文字パターンのサンプルを幾つか
集め、これらを順次この文字認識装置に入力して、その
入力文字パターンと各文字パターン候補との類似度を算
出する。First, several samples of character patterns to be recognized are collected, and these are sequentially input to this character recognition device, and the degree of similarity between the input character pattern and each character pattern candidate is calculated.
算出された各類似度は、これに対応する正解のデータと
ともに全体学習データベース33に格納される。Each calculated similarity is stored in the overall learning database 33 together with the corresponding correct answer data.
この後、学習データベース33から一組ずつ類似度が出
力されると、その類似度データ群はルール34によって
第1または第2のニューラルネット31.32のいずれ
かに割り当てられて入力される。すなわち学習データベ
ース33から抽出された類似度データ群において類似度
が0.9以上のものを1つでも含んでいる場合は、当該
類似度データ群を第1のニューラルネット31に入力さ
れる。Thereafter, when similarities are output one by one from the learning database 33, the similarity data group is assigned and input to either the first or second neural network 31, 32 according to the rule 34. That is, if the similarity data group extracted from the learning database 33 includes at least one item with a similarity of 0.9 or more, the similarity data group is input to the first neural network 31.
一方、当該類似度データ群に類似度が0.9以上のもの
が1として含まれていなかった場合は、当該類似度デー
タ群は第2のニューラルネット32に入力される。On the other hand, if the similarity data group does not include a similarity of 0.9 or higher as 1, the similarity data group is input to the second neural network 32.
こうしていずれかのニューラルネット31.32で判定
された結果は、評価器35において正解のデータと比較
され、両者が一致しなかった場合は、判定を行ったニュ
ーラルネット31.32における荷重値を次回からの文
字認識において正解が得られるような方向性を持って修
正する。The result determined by either neural net 31 or 32 is compared with the correct data in the evaluator 35, and if the two do not match, the weight value of the neural network 31 or 32 that made the determination is used next time. Correct the direction in which the correct answer can be obtained in character recognition from .
そして第1および第2のニューラルネット31.32の
修正を行い、全てのサンプルについて正解のデータが得
られるようになった時点で学習を終了させる。Then, the first and second neural networks 31 and 32 are modified, and learning is terminated when correct data can be obtained for all samples.
かくしてこの実施例の文字認識装置によれば、入力文字
パターンと各文字パターン候補との類似度データ群にお
いである値以上の類似度が1つでも含まれているか否か
に応じて、この類似度データ群からの認識結果の判定を
実際に行うニューラルネット31.32を決定するよう
にしたので、認識の対象となる文字パターンが増加して
も、短時間でニューラルネットの修正を完了させること
ができ、しかも特徴の変化が大きな文字パターンのグル
ープに対して安定して正しい認識結果を得ることができ
る。Thus, according to the character recognition device of this embodiment, the similarity is determined depending on whether or not the similarity data group between the input character pattern and each character pattern candidate contains at least one similarity of a certain value or more. Since the neural networks 31 and 32 that actually judge the recognition results from the data group are determined, even if the number of character patterns to be recognized increases, the correction of the neural network can be completed in a short time. Moreover, it is possible to stably obtain correct recognition results for groups of character patterns with large feature changes.
次に本発明のさらに他の実施例を説明する。Next, still another embodiment of the present invention will be described.
第7図は本発明に係るさらに他の実施例の文字認識装置
における判定部を示しており、その他の構成部分につい
ては第1図に示した一実施例と同じである。FIG. 7 shows a determining section in a character recognition device according to still another embodiment of the present invention, and the other components are the same as those in the embodiment shown in FIG.
同図に示すように、この文字認識装置における判定部は
、入力文字パターンと各文字パターン候補との類似度か
ら正しい文字認識結果を判定することを目的として学習
を行う第1のニューラルネット41と、この第1の二二
一うルネット41である程度の修正を繰り返したのにも
係わらず、あるいは学習の収束が遅くなった時点で正解
が得られなかった文字パターン(または最大値のデータ
が正解ではあるが、その値が十分大きくない文字パター
ン、もしくは2番目に高い類似度との差が極めて少ない
文字パターン等)を対象に、正しい文字認識結果を判定
することを目的として学習を行う第2のニューラルネッ
ト42と、これらのニューラルネット41.42の判定
結果から正解のデータを判定することを目的に学習を行
う第3のニューラルネットとを主要な構成としている。As shown in the figure, the determination unit in this character recognition device includes a first neural network 41 that performs learning for the purpose of determining a correct character recognition result from the degree of similarity between an input character pattern and each character pattern candidate. , Despite repeated corrections to some extent in this first 221 runnet 41, or when the learning convergence is delayed, the character pattern for which the correct answer was not obtained (or the data with the maximum value is the correct answer) However, the second step is to perform learning for the purpose of determining correct character recognition results for character patterns whose values are not large enough, or character patterns whose difference from the second highest similarity is extremely small, etc. The main components are a neural network 42 and a third neural network that performs learning for the purpose of determining correct data from the determination results of these neural networks 41 and 42.
また44は認識すべき全ての文字パターンを対象とした
学習データが登録される学習データベース、45は第3
のニューラルネット43により判定された結果と正解の
データとを比較してそれぞれが一致するかどうかを判断
する評価器である。Further, 44 is a learning database in which learning data for all character patterns to be recognized is registered, and 45 is a third database.
This is an evaluator that compares the results determined by the neural network 43 with the correct data and determines whether they match.
次にこの実施例装置の学習動作を説明する。Next, the learning operation of this embodiment device will be explained.
まず学習データベース44から類似度データを抽出して
これを一組ずつ第1のニューラルネット41に入力する
とともに、評価器45に正解のデータをセットする。こ
れにより第1のニューラルネット41において、各類似
度に対し正解のデータが判定されるような方向性を持っ
て学習が行われる。First, similarity data is extracted from the learning database 44 and input into the first neural network 41 one set at a time, and correct data is set in the evaluator 45. Thereby, in the first neural network 41, learning is performed in a direction such that correct data is determined for each degree of similarity.
次に、この学習をある程度繰り返した時点で、または学
習の収束が遅くなった時点で、正解のデータが得られな
かった文字パターンに関する学習データを第2のニュー
ラルネット42に入力し、この第2のニューラルネット
42における学習を開始させる。Next, when this learning has been repeated to a certain extent, or when the convergence of learning has slowed down, learning data regarding character patterns for which no correct data has been obtained is input to the second neural network 42, learning in the neural network 42 is started.
そしてこの間、第3のニューラルネット43においては
、第1および第2のニューラルネット41.42の判定
結果のうちどちらのデータが正解であるかを判断できる
よう学習させる。During this time, the third neural network 43 is trained to determine which data is correct among the determination results of the first and second neural networks 41 and 42.
こうして第1から第3のニューラルネット41、42.
43における学習を進め、最終的に全ての文字パターン
に対して正解のデータが得られるようになった時点で全
ての学習を終了させる。In this way, the first to third neural networks 41, 42 .
The learning in step 43 is continued, and all learning is ended when correct data is finally obtained for all character patterns.
かくしてこの実施例の文字認識装置によれば、第1のニ
ューラルネット41における学習の繰り返しだけでは正
解を得ることが困難な文字パターンを対象に、第2のニ
ューラルネット42で正解が得られるような方向性を持
って学習を行うようにしたので、先に説明した実施例と
同様に短時間でニューラルネットの修正を完了させるこ
とができる。Thus, according to the character recognition device of this embodiment, for a character pattern for which it is difficult to obtain a correct answer only by repeating learning in the first neural network 41, the second neural network 42 can obtain a correct answer. Since the learning is performed in a directional manner, the modification of the neural network can be completed in a short time as in the previously described embodiment.
なお、この実施例では第1および第2のニューラルネッ
ト41.42の判定結果からさらに第3第3のニューラ
ルネット43を用いて最終的な文字の判定を行うように
したが、この第3のニューラルネット43の代りにルー
ルを用いてもよい。In this embodiment, a third neural network 43 is further used to make a final character determination based on the determination results of the first and second neural networks 41 and 42. Rules may be used instead of the neural network 43.
次に本発明のさらに他の実施例を説明する。Next, still another embodiment of the present invention will be described.
第8図は本発明に係るさらに他の実施例の文字認識装置
における判定部を示すブロック図である。FIG. 8 is a block diagram showing a determining section in a character recognition device according to still another embodiment of the present invention.
同図に示すように、この判定部は、認識の対象である各
文字パターン毎にそれぞれの判定を行う複数のニューラ
ルネット51を主要な構成としている。すなわちここで
認識の対象が“0”から9”の10個あるとすると、1
0個のニューラルネット51が必要となる。As shown in the figure, this determination section mainly includes a plurality of neural networks 51 that perform determinations for each character pattern to be recognized. In other words, if there are 10 recognition targets from "0" to 9, then 1
0 neural nets 51 are required.
これらのニューラルネット51における学習は、まず全
体学習データベース52に登録された学習データをデー
タ選別器53を介して読出してそれぞれの学習データを
各ニュールネット51の学習データベース(図示省略)
に 1組ずつ登録した後、各ニューラルネット51毎に
正解のデータが得られるような方向性を持って荷重値の
修正を繰り返し行うことによりなされる。Learning in these neural nets 51 is carried out by first reading learning data registered in the overall learning database 52 via the data selector 53, and passing the respective learning data to the learning database of each neural net 51 (not shown).
After registering one set at a time, the load values are repeatedly corrected in a direction that allows correct data to be obtained for each neural network 51.
そして各ニューラルネット51で正解のデータが得られ
るようになった時点で学習を終了させる。The learning is then terminated when correct data can be obtained from each neural network 51.
文字の判定を行う場合は、各ニューラルネット51の判
定結果のうち、一つでも正解が判断されれば、判定器5
4によりその正解のデータが最終的な認識結果として判
定されて出力される。When determining characters, if even one of the determination results of each neural network 51 is determined to be correct, the determination device 5
4, the correct data is determined and output as the final recognition result.
また正しいと判断される文字パターンが2つ以上あれば
、つまり 2つ以上のニューラルネット51においてそ
れぞれ対応する文字パターンが正しいと判断すれば、そ
の正解の度合として出てくる値が最も大きいものを認識
結果として判定する。Furthermore, if there are two or more character patterns that are determined to be correct, that is, if two or more neural networks 51 determine that the corresponding character patterns are correct, then the one that yields the largest value as the degree of correctness is selected. Judgment is made as a recognition result.
またさらに全てのニューラルネットが正しくないと判断
した場合は判断不能とする。Furthermore, if all the neural networks are determined to be incorrect, it is determined that the determination is impossible.
かくしてこの実施例装置によれば、各ニューラルネット
51において、入力文字パターンに対する認識結果の判
定を、個々の入力文字パターン毎にそれぞれ分担して行
うようにしたので、認識の対象となる文字パターンが増
加しても、短時間でニューラルネットの修正を完了させ
ることができ、しかもこの実施例装置では各文字パター
ンの特徴の変化が大きな場合であっても、安定して正し
い文字認識を行うことができる。Thus, according to the device of this embodiment, each neural network 51 divides the judgment of the recognition result for each input character pattern for each input character pattern, so that the character pattern to be recognized is Even if the number of characters increases, it is possible to complete the correction of the neural network in a short time, and furthermore, with this embodiment device, even if the characteristics of each character pattern change significantly, it is possible to perform stable and correct character recognition. can.
[発明の効果]
以上説明したように本発明の文字認識方法によれば、認
識の対象となる文字の数が増加しても、これらの文字認
識を複数のニューラルネットで分担して行うようにする
ことで、短時間で二二一うルネットの学習を完了させる
ことができる。[Effects of the Invention] As explained above, according to the character recognition method of the present invention, even if the number of characters to be recognized increases, the recognition of these characters can be shared among multiple neural networks. By doing this, you can complete the study of 221 Urunet in a short time.
第1図は本発明の一実施例の文字認識方法を採用した文
字認識装置の構成を説明するためのブロック図、第2図
は第1図におけるニューラルネットの構成を説明するた
めの図、第3図は第2図のニューラルネットを管理する
ネットワーク管理部の構成を説明するためのブロック図
、第4図は第1図における判定部の構成を示すブロック
図、第5図は第4図の判定部における学習動作の流れを
示すフローチャート、第6図は本発明の他の実施例の文
字認識方法を採用した文字認識装置における判定部の構
成を示すブロック図、第7図は本発明のさらに他の実施
例の文字認識装置における判定部を示すブロック図、第
8図は本発明のさらに他の実施例の文字認識装置におけ
る判定部を示すブロック図である。
3・・・パターン・マツチング部、4・・・判定部、2
1・・・ニューラルネット、22・・・総合判定器、2
3・・・全体学習データベース、24・・・学習データ
分割器、
25・・・総合評価器。FIG. 1 is a block diagram for explaining the configuration of a character recognition device that employs a character recognition method according to an embodiment of the present invention, FIG. 2 is a block diagram for explaining the configuration of a neural network in FIG. 1, and FIG. 3 is a block diagram for explaining the configuration of the network management section that manages the neural network in FIG. 2, FIG. 4 is a block diagram showing the configuration of the determination section in FIG. 1, and FIG. A flowchart showing the flow of the learning operation in the judgment section, FIG. 6 is a block diagram showing the configuration of the judgment section in a character recognition device adopting a character recognition method according to another embodiment of the present invention, and FIG. FIG. 8 is a block diagram showing a determination section in a character recognition device according to another embodiment of the present invention. FIG. 3... Pattern matching section, 4... Judgment section, 2
1... Neural network, 22... Comprehensive judger, 2
3... Whole learning database, 24... Learning data divider, 25... Comprehensive evaluator.
Claims (3)
各類似度から前記入力文字パターンの認識結果として最
も確信度の高い文字パターン候補を複数のニューラルネ
ットを用いて判定する方法であって、前記各入力文字パ
ターンに対する認識結果の判定を、前記複数のニューラ
ルネットおいて分担して行うことを特徴とする文字認識
方法。(1) A method of determining a character pattern candidate with the highest confidence as a recognition result of the input character pattern from each degree of similarity between an input character pattern and a plurality of character pattern candidates, using a plurality of neural networks, the method comprising: A character recognition method characterized in that the plurality of neural networks share the determination of recognition results for each input character pattern.
各類似度から前記入力文字パターンの認識結果として最
も確信度の高い文字パターン候補を複数のニューラルネ
ットを用いて判定する方法であって、前記各類似度の内
容に応じて、前記認識結果の判定に直接供される前記ニ
ューラルネットを決定することを特徴とする文字認識方
法。(2) A method for determining a character pattern candidate with the highest confidence as a recognition result of the input character pattern from each degree of similarity between the input character pattern and a plurality of character pattern candidates, using a plurality of neural networks, the method comprising: A character recognition method characterized in that the neural network to be directly used for determining the recognition result is determined according to the contents of each degree of similarity.
各類似度から前記入力文字パターンの認識結果として最
も確信度の高い文字パターン候補を複数のニューラルネ
ットを用いて判定する方法であって、前記認識結果の判
定を、判定の対象となる文字毎に前記複数のニューラル
ネットでそれぞれ分担して行うことを特徴とする文字認
識方法。(3) A method for determining a character pattern candidate with the highest degree of certainty as a recognition result of the input character pattern from each degree of similarity between the input character pattern and a plurality of character pattern candidates, using a plurality of neural networks, the method comprising: A character recognition method characterized in that the plurality of neural networks divide the judgment of the recognition result for each character to be judged.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP63283442A JPH02129782A (en) | 1988-11-09 | 1988-11-09 | Character recognizing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP63283442A JPH02129782A (en) | 1988-11-09 | 1988-11-09 | Character recognizing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH02129782A true JPH02129782A (en) | 1990-05-17 |
Family
ID=17665599
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP63283442A Pending JPH02129782A (en) | 1988-11-09 | 1988-11-09 | Character recognizing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH02129782A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11488023B2 (en) | 2018-03-28 | 2022-11-01 | Fujitsu Limited | Adaptability calculation method, adaptability calculation device, identification method, identification device, and computer-readable recording medium |
-
1988
- 1988-11-09 JP JP63283442A patent/JPH02129782A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11488023B2 (en) | 2018-03-28 | 2022-11-01 | Fujitsu Limited | Adaptability calculation method, adaptability calculation device, identification method, identification device, and computer-readable recording medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3088171B2 (en) | Self-organizing pattern classification system and classification method | |
CN113064879A (en) | Database parameter adjusting method and device and computer readable storage medium | |
CN111047563B (en) | Neural network construction method applied to medical ultrasonic image | |
CN114359938B (en) | Form identification method and device | |
CN111310918A (en) | Data processing method and device, computer equipment and storage medium | |
US20190205763A1 (en) | Information processing device, information processing method and information processing program | |
CN110188196A (en) | A Text Incremental Dimensionality Reduction Method Based on Random Forest | |
CN112836820A (en) | Deep convolutional network training method, device and system for image classification task | |
WO2022113175A1 (en) | Processing method, processing system, and processing program | |
CN110443292B (en) | Multi-influence-factor crowdsourcing answer decision method | |
CN112262399A (en) | Action learning device, action learning method, action learning system, program, and recording medium | |
CN114707635A (en) | Model construction method and device based on network architecture search and storage medium | |
JPH02129782A (en) | Character recognizing method | |
JPH09152480A (en) | Automatic target recognition apparatus | |
CN109308565B (en) | Crowd performance grade identification method and device, storage medium and computer equipment | |
CN112044082B (en) | Information detection method and device and computer readable storage medium | |
CN115909027A (en) | Situation estimation method and device | |
CN115577765A (en) | Network model pruning method, electronic device and storage medium | |
CN114637896A (en) | Data auditing method and device, storage medium and electronic device | |
JP2680419B2 (en) | Character recognition device | |
JPH08115387A (en) | Pattern recognition device | |
CN112906525A (en) | Age identification method and device and electronic equipment | |
JPH02125392A (en) | Character recognizing method and character recognition device using the same | |
CN118195851B (en) | Programming capability evaluation system, programming capability evaluation method, programming capability evaluation device and terminal equipment | |
CN118897886B (en) | Question-answering method, system, equipment and medium based on specific domain knowledge graph |