JPH03196277A - データ処理装置のための特徴データ選択方法 - Google Patents
データ処理装置のための特徴データ選択方法Info
- Publication number
- JPH03196277A JPH03196277A JP1335960A JP33596089A JPH03196277A JP H03196277 A JPH03196277 A JP H03196277A JP 1335960 A JP1335960 A JP 1335960A JP 33596089 A JP33596089 A JP 33596089A JP H03196277 A JPH03196277 A JP H03196277A
- Authority
- JP
- Japan
- Prior art keywords
- feature data
- data
- character
- neurons
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title description 14
- 238000013528 artificial neural network Methods 0.000 claims description 11
- 238000010187 selection method Methods 0.000 claims description 4
- 210000002569 neuron Anatomy 0.000 abstract description 34
- 230000001537 neural effect Effects 0.000 abstract description 12
- 238000010304 firing Methods 0.000 description 27
- 238000010586 diagram Methods 0.000 description 3
- 239000006185 dispersion Substances 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/211—Selection of the most significant subset of features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/191—Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
- G06V30/19167—Active pattern learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Biophysics (AREA)
- Databases & Information Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Character Discrimination (AREA)
- Image Analysis (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
め要約のデータは記録されません。
Description
【発明の詳細な説明】
〔産業上の利用分野〕
本発明は、複数の特徴データの組合せよりなる入力デー
タ群を、ニューラルネットワークあるいはこれと等価な
構成よりなるデータ処理装置によって識別するための特
徴データ選択方法に関する。
タ群を、ニューラルネットワークあるいはこれと等価な
構成よりなるデータ処理装置によって識別するための特
徴データ選択方法に関する。
ニューラルネットワークは従来公知のように、ニューロ
ンを並列に設けて層状に構成される。各ニューロンにお
いて、外部から入力されるデータIt、rz、■3、・
・・Illにはそれぞれ重みW、、W、 、W、、・・
・W7が掛けられ、これらの総和と閾値θとの比較結果
に応じたデータ0が出力される。この比較方法としては
種々のものが可能であるが、例えば正規化関数1〔f〕
を採用すると、出力データOは、 0=1 〔ΣW7・17−θ〕 と表され、ΣW7・■7が閾値0以上の時「1」となり
、またΣWo・■1が閾値θより小さい時「0」となる
。
ンを並列に設けて層状に構成される。各ニューロンにお
いて、外部から入力されるデータIt、rz、■3、・
・・Illにはそれぞれ重みW、、W、 、W、、・・
・W7が掛けられ、これらの総和と閾値θとの比較結果
に応じたデータ0が出力される。この比較方法としては
種々のものが可能であるが、例えば正規化関数1〔f〕
を採用すると、出力データOは、 0=1 〔ΣW7・17−θ〕 と表され、ΣW7・■7が閾値0以上の時「1」となり
、またΣWo・■1が閾値θより小さい時「0」となる
。
このようにニューロンは、入力データに応じて「l」ま
たは「0」を出力する。このニューロンの発火パターン
、すなわち各ニューロンのうちどのニューロンが発火す
るかは、入力データによって異なる。
たは「0」を出力する。このニューロンの発火パターン
、すなわち各ニューロンのうちどのニューロンが発火す
るかは、入力データによって異なる。
さて従来、ニューラルネットワークにより文字等を認識
する方法として、特開平1−209E82号公報には、
文字の特徴データ(例えば端点数、分岐点数等)を求め
、この特徴データがどの文字のものに該当するかを判断
することにより行うものが開示されている。
する方法として、特開平1−209E82号公報には、
文字の特徴データ(例えば端点数、分岐点数等)を求め
、この特徴データがどの文字のものに該当するかを判断
することにより行うものが開示されている。
ここに、前述の文字認識に限らず、複数の特徴データの
組合せよりなる入力データ群をいかに高精度に識別する
かは前記データ処理装置の重要な課題であり、また同一
の識別機能を最小限のニューラルネットワークにより実
現するかという点もデータ処理装置の実用化において不
可欠な検討課題である。そこで前述の従来例では活字の
日本語文字について有効といわれている特徴データを使
用することとしていたが、手書き文字、くずし字、手書
き欧文、アラビア文字等の特殊な文字、その他に関し、
どのような特徴データが有効であるか未知の場合がある
。しかし、考えられてる特徴データの全てを採用したと
すれば、極めて大規模なデータ処理装置が必要となる。
組合せよりなる入力データ群をいかに高精度に識別する
かは前記データ処理装置の重要な課題であり、また同一
の識別機能を最小限のニューラルネットワークにより実
現するかという点もデータ処理装置の実用化において不
可欠な検討課題である。そこで前述の従来例では活字の
日本語文字について有効といわれている特徴データを使
用することとしていたが、手書き文字、くずし字、手書
き欧文、アラビア文字等の特殊な文字、その他に関し、
どのような特徴データが有効であるか未知の場合がある
。しかし、考えられてる特徴データの全てを採用したと
すれば、極めて大規模なデータ処理装置が必要となる。
〔発明が解決しようとする課題〕
本発明はこのような従来の問題点を解消すべく創案され
たもので、有効な特徴データが絞りきれていない場合の
特徴データの選択方法を提供することを目的する。
たもので、有効な特徴データが絞りきれていない場合の
特徴データの選択方法を提供することを目的する。
本発明に係るデータ処理装置のための特徴データ選択方
法は、異なる入力データについて一部の対応特徴データ
を相互に交換したときの出力の類似性が高い特徴データ
を除外し、各入力データのデータ量を節減することを特
徴としている。
法は、異なる入力データについて一部の対応特徴データ
を相互に交換したときの出力の類似性が高い特徴データ
を除外し、各入力データのデータ量を節減することを特
徴としている。
以下図示実施例により本発明を説明する。
第2図は本発明を適用したデータ処理装置の一例である
文字認識システムの構成を示し、この認識システムにお
いて、文字はビデオカメラ11から入力される。入力さ
れた文字の特徴データ、すなわち例えば端点数、分岐点
数等は、画像処理システム12により求められる。なお
、この求め方は従来公知であり、ここではその説明を省
略する。
文字認識システムの構成を示し、この認識システムにお
いて、文字はビデオカメラ11から入力される。入力さ
れた文字の特徴データ、すなわち例えば端点数、分岐点
数等は、画像処理システム12により求められる。なお
、この求め方は従来公知であり、ここではその説明を省
略する。
さて、画像処理システム12はコンピュータ20に接続
されており、このコンピュータ20はニューラルネット
ワークによって構築され、文字の特徴データを用いて文
字認識を行う。つまりこのコンピュータ20は、入力さ
れた特徴データがどの文字の特徴データに最も近いかを
調べ、これによりその文字を認識する。認識された文字
は、出力処理システム13に入力されて所定のデータ形
式に変換され、表示装置14によって表示される。
されており、このコンピュータ20はニューラルネット
ワークによって構築され、文字の特徴データを用いて文
字認識を行う。つまりこのコンピュータ20は、入力さ
れた特徴データがどの文字の特徴データに最も近いかを
調べ、これによりその文字を認識する。認識された文字
は、出力処理システム13に入力されて所定のデータ形
式に変換され、表示装置14によって表示される。
表示装置14は例えばCRTを有し、認識された文字を
画面上に表示する。
画面上に表示する。
なお出力処理システム13は画像処理システム12にも
接続され、後述するように、コンピュータ20の出力側
のニューロンの発火パターンを画像処理システム12へ
出力し、これにより画像処理システムI2は文字の特徴
データの選択を行うように構成されている。
接続され、後述するように、コンピュータ20の出力側
のニューロンの発火パターンを画像処理システム12へ
出力し、これにより画像処理システムI2は文字の特徴
データの選択を行うように構成されている。
コンピュータ20は上述したようにニューラルネットワ
ークによって構築されており、第2図はニューラルネッ
トワークの構成を模式的に示している。この図から理解
されるように、本実施例におけるニューラルネットワー
クは3つのニューラルレイヤ2122.23を有し、各
二二一うルレイヤ21,22.23はそれぞれ多数のニ
ューロンnから構成される。入力側のニューラルレイヤ
2工の各ニューロンnは、中間層のニューラルレイヤ2
2の各ニューロンnにそれぞれ接続され、同様にして、
中間層のニューラルレイヤ22の各ニューロンnは、出
力側のニューラルレイヤ23の各ニューロンnにそれぞ
れ接続されている。
ークによって構築されており、第2図はニューラルネッ
トワークの構成を模式的に示している。この図から理解
されるように、本実施例におけるニューラルネットワー
クは3つのニューラルレイヤ2122.23を有し、各
二二一うルレイヤ21,22.23はそれぞれ多数のニ
ューロンnから構成される。入力側のニューラルレイヤ
2工の各ニューロンnは、中間層のニューラルレイヤ2
2の各ニューロンnにそれぞれ接続され、同様にして、
中間層のニューラルレイヤ22の各ニューロンnは、出
力側のニューラルレイヤ23の各ニューロンnにそれぞ
れ接続されている。
各ニューロンnは、例えばオペアンプから構成されるも
のであり、また、前述したように各入力データそれぞれ
重みを掛けたものの総和と闇値とを比較し、その比較結
果に応じた出力を発生する。
のであり、また、前述したように各入力データそれぞれ
重みを掛けたものの総和と闇値とを比較し、その比較結
果に応じた出力を発生する。
すなわちニューロンnは、例えば総和が闇値を越えた場
合発火してrl、を出力し、また総和が闇値よりも小さ
い場合「0」を出力する。
合発火してrl、を出力し、また総和が闇値よりも小さ
い場合「0」を出力する。
第3図(a)、(b)は、出力側のニューラルレイヤ2
3のニューロンをXY座標により示したもので、図中、
発火したニューロンは黒で示され、発火していないニュ
ーロンは白で示されている。
3のニューロンをXY座標により示したもので、図中、
発火したニューロンは黒で示され、発火していないニュ
ーロンは白で示されている。
ここで、第3図(a)は、カメラ11により入力された
文字が「A」である場合におけるニューラルレイヤ23
のニューロンの発火パターンであり、また第3図(b)
は、入力された文字がr13Jである場合におけるニュ
ーロンの発火パターンである、と仮定する。この図から
理解されるように、「A」の場合、左側のニューロンが
多く発火しており、r13Jの場合、右下のニューロン
が多く発火している。このように、発火パターンはその
ニューラルレイヤに入力されたデータによって変化する
。
文字が「A」である場合におけるニューラルレイヤ23
のニューロンの発火パターンであり、また第3図(b)
は、入力された文字がr13Jである場合におけるニュ
ーロンの発火パターンである、と仮定する。この図から
理解されるように、「A」の場合、左側のニューロンが
多く発火しており、r13Jの場合、右下のニューロン
が多く発火している。このように、発火パターンはその
ニューラルレイヤに入力されたデータによって変化する
。
第1図は、第2図の認識システムにより実施される文字
認識の方法の例、すなわち本発明の一実施例を示す。
認識の方法の例、すなわち本発明の一実施例を示す。
ステップ31では、入力された多数の文字群から個々の
文字を分離するため、画像処理システム12において、
文字の切出しが行われる。つまり本実施例では、カメラ
11は多数の文字を一度に撮影するので、ステップ31
では、その後−つの文字について認識処理を行うために
文字の切出しを行う。例えば第4図に示すように、図中
、横方向にX軸、縦方向にY軸をとり、文字群が一行目
にrABC,、、、、二行目にrMNo、 1.Jと並
ぶものであるとすると、まず符号Pで示すようにY座標
に関する濃度投影をとって各行間の切れ目を検出し、次
に符号Qで示すようにX座標に関する濃度投影をとって
各文字間の切れ目を検出する。この後、フィレ径をとり
、このフィレ径の中においてノイズ処理を行うとともに
ラベリングを行い、これにより各文字が切り出される。
文字を分離するため、画像処理システム12において、
文字の切出しが行われる。つまり本実施例では、カメラ
11は多数の文字を一度に撮影するので、ステップ31
では、その後−つの文字について認識処理を行うために
文字の切出しを行う。例えば第4図に示すように、図中
、横方向にX軸、縦方向にY軸をとり、文字群が一行目
にrABC,、、、、二行目にrMNo、 1.Jと並
ぶものであるとすると、まず符号Pで示すようにY座標
に関する濃度投影をとって各行間の切れ目を検出し、次
に符号Qで示すようにX座標に関する濃度投影をとって
各文字間の切れ目を検出する。この後、フィレ径をとり
、このフィレ径の中においてノイズ処理を行うとともに
ラベリングを行い、これにより各文字が切り出される。
次いでステップ32では、1番目の文字、すなわち第4
図の例では「A」が読み込まれる。文字の特徴データと
して、端点数、分岐点数、穴数、グループ数、ストロー
ク、濃度投影および曲率があり、ステップ33では、ま
ず1番目の文字について、これら7つの特徴データが得
られる。これらの特徴データは、画像処理システム12
において従来公知の手法により得られ、またこのシステ
ム12内のメモリに格納されるとともに、コンピュータ
20に入力される。ステップ34では、これらの特徴デ
ータが人力された時の出力側ニューラルレイヤ23にお
ける発火パターンが記憶される。
図の例では「A」が読み込まれる。文字の特徴データと
して、端点数、分岐点数、穴数、グループ数、ストロー
ク、濃度投影および曲率があり、ステップ33では、ま
ず1番目の文字について、これら7つの特徴データが得
られる。これらの特徴データは、画像処理システム12
において従来公知の手法により得られ、またこのシステ
ム12内のメモリに格納されるとともに、コンピュータ
20に入力される。ステップ34では、これらの特徴デ
ータが人力された時の出力側ニューラルレイヤ23にお
ける発火パターンが記憶される。
ステップ35ではパラメータ「N」が2に定められ、ス
テップ36ではN番目、すなわち2番目の文字がステッ
プ32と同様にして読み込まれる。
テップ36ではN番目、すなわち2番目の文字がステッ
プ32と同様にして読み込まれる。
ステップ37では、2番目の文字について上記7つの特
徴データが得られる。これらの特徴データは画像処理シ
ステム12のメモリに格納されるとともにコンピュータ
20に入力される。ステップ38では、ステップ34と
同様に、2番目の文字の発火パターンが記憶される。
徴データが得られる。これらの特徴データは画像処理シ
ステム12のメモリに格納されるとともにコンピュータ
20に入力される。ステップ38では、ステップ34と
同様に、2番目の文字の発火パターンが記憶される。
ステップ41ではパラメータ「i」が1に定められる。
ステップ42では、1番目の文字(「AJ)の特徴デー
タのうちi番目すなわち1番目の特徴データ(例えば端
点数)が、2番目の文字(’BJ)の1番目の特徴デー
タに置き換えられ、つまり1番目の文字について、1番
目の特徴データのみが2番目の文字のものに置き換えら
れる。
タのうちi番目すなわち1番目の特徴データ(例えば端
点数)が、2番目の文字(’BJ)の1番目の特徴デー
タに置き換えられ、つまり1番目の文字について、1番
目の特徴データのみが2番目の文字のものに置き換えら
れる。
このようにひとつの特徴データが置き換えられると、こ
れにより出力側のニューラルレイヤ23のニューロンの
発火パターンはもとの発火パターンから変化する。すな
わち、第3図(a)の発火パターンが図示のものから変
化する。ステップ43では、発火パターンがどの程度変
化したかが評価される。この発火パターンの変化の評価
については、後述する。
れにより出力側のニューラルレイヤ23のニューロンの
発火パターンはもとの発火パターンから変化する。すな
わち、第3図(a)の発火パターンが図示のものから変
化する。ステップ43では、発火パターンがどの程度変
化したかが評価される。この発火パターンの変化の評価
については、後述する。
ステップ44では、全ての特徴データについてステップ
42およびステップ43が実行されたか否か検討される
。ここで、全ての特徴データについてステップ42.4
3の処理が終了していればステップ46が実行されるが
、終了していなければ、ステップ45においてパラメー
タ「i」が1だけ増加せしめられ、ステップ42.43
が繰返される。すなわち、1番目の文字(’AJ )の
特徴データのうち次の特徴データ(例えば分岐点数)が
、2番目の文字(’BJ)の対応する特徴データによっ
て置き換えられ、発火パターンの変化が評価される。
42およびステップ43が実行されたか否か検討される
。ここで、全ての特徴データについてステップ42.4
3の処理が終了していればステップ46が実行されるが
、終了していなければ、ステップ45においてパラメー
タ「i」が1だけ増加せしめられ、ステップ42.43
が繰返される。すなわち、1番目の文字(’AJ )の
特徴データのうち次の特徴データ(例えば分岐点数)が
、2番目の文字(’BJ)の対応する特徴データによっ
て置き換えられ、発火パターンの変化が評価される。
しかして7つの特徴データについて発火パターンの変化
が評価されると、ステップ46において、どの特徴デー
タを置き換えた場合、発火パターンの変化が最も小さい
か、すなわち発火パターンの変化に最も影響を及ぼさな
い特徴データが選ばれ、この特徴データが以後の処理か
ら除外される。
が評価されると、ステップ46において、どの特徴デー
タを置き換えた場合、発火パターンの変化が最も小さい
か、すなわち発火パターンの変化に最も影響を及ぼさな
い特徴データが選ばれ、この特徴データが以後の処理か
ら除外される。
次にステップ43において実行される発火パターンの変
化の評価について説明する。発火パターンの変化の評価
は、例えばクラス内分散とクラス間分散を比較すること
により行われる。
化の評価について説明する。発火パターンの変化の評価
は、例えばクラス内分散とクラス間分散を比較すること
により行われる。
すなわち、発火パターンを第3図(a)および(b)に
示すようにXY平面上に表し、そして発火したニューロ
ンのX座標およびX座標をとる。
示すようにXY平面上に表し、そして発火したニューロ
ンのX座標およびX座標をとる。
例えば入力された文字が「A」の場合、X座標に関する
クラス内分散■。は、 V、lA=Σ(xA−xA)” ・・・(1
)となる。ただし、xAは発火した各ニューロンのX座
標、XAは発火した全ニューロンのX座標の平均値であ
る。同様にして、X座標に関するクラス内分散vVAは
、 vvA=Σ(ya −YA ) ” −−−
(2)となる。
クラス内分散■。は、 V、lA=Σ(xA−xA)” ・・・(1
)となる。ただし、xAは発火した各ニューロンのX座
標、XAは発火した全ニューロンのX座標の平均値であ
る。同様にして、X座標に関するクラス内分散vVAは
、 vvA=Σ(ya −YA ) ” −−−
(2)となる。
ステップ42において特徴データのひとつを置き換えた
場合の発火パターンについても、同様にしてX座標およ
びX座標に関するクラス内分散をとる。すなわち、この
場合のX座標に関するクラス内分散を■。とすると、 vxa=Σ(xs −XI ) ” −−・
(3)また、X座標に関するクラス内分散をvvmとす
ると、 ■□=Σ(YI Y!+)” ・・・(
4)となる。
場合の発火パターンについても、同様にしてX座標およ
びX座標に関するクラス内分散をとる。すなわち、この
場合のX座標に関するクラス内分散を■。とすると、 vxa=Σ(xs −XI ) ” −−・
(3)また、X座標に関するクラス内分散をvvmとす
ると、 ■□=Σ(YI Y!+)” ・・・(
4)となる。
次に、文字「A」の場合の発火パターンと、ひとつの特
徴データを置き換えた場合の発火パターンとのクラス間
分散を求める。これは、両者の場合の少なくとも一方に
おいて発火したニューロンについて求めるものであり、
X座標に関するクラス内分散をVXTとすると、 ■8.=ΣCXT X? )” ・・・(
5)また、X座標に関するクラス内分散をV□とすると
、 ■□=Σ(Yl −yi+ ) ” ・・・
(6)である。
徴データを置き換えた場合の発火パターンとのクラス間
分散を求める。これは、両者の場合の少なくとも一方に
おいて発火したニューロンについて求めるものであり、
X座標に関するクラス内分散をVXTとすると、 ■8.=ΣCXT X? )” ・・・(
5)また、X座標に関するクラス内分散をV□とすると
、 ■□=Σ(Yl −yi+ ) ” ・・・
(6)である。
クラス内分散とクラス間分散との比、すなわち分散比は
、X座標に関しては(1)、(3)、(5)式よりFX
=Vxy/ (VXAXVXI) −・−(
7)またX座標に関しては(2)、(4)、(6)式よ
りF y −Vyy/ (VYAX V□) ・
・・(8)である。
、X座標に関しては(1)、(3)、(5)式よりFX
=Vxy/ (VXAXVXI) −・−(
7)またX座標に関しては(2)、(4)、(6)式よ
りF y −Vyy/ (VYAX V□) ・
・・(8)である。
以上のようにして、特徴データを置き換えた場合の発火
パターンの変化が評価され、ステップ46では、この変
化の最も小さい特徴データが抽出される。すなわち、文
字認識にとって有効でない特徴データが抽出される。こ
の抽出においては、分散比F、lとFvの総和を相互に
比較してもよいし、あるいは分散比FxとFvの小さい
方どうし、または大きい方どうしを比較してもよい。
パターンの変化が評価され、ステップ46では、この変
化の最も小さい特徴データが抽出される。すなわち、文
字認識にとって有効でない特徴データが抽出される。こ
の抽出においては、分散比F、lとFvの総和を相互に
比較してもよいし、あるいは分散比FxとFvの小さい
方どうし、または大きい方どうしを比較してもよい。
このように発火したニューロンのXおよびX座標につい
ての分散を調べる他、回帰直線を用いて分散を調べても
よい。ここで、発火ニューロンから回帰直線までの距離
を、元の特徴データの場合についてはdA、ひとつの特
徴データを置き換えた場合についてはd、、またこれら
の平均値をそれぞれdA、d、とする。元の特徴データ
についてのクラス内分散■、は、 ■A=Σ(dA−1A)2 ・・・00)ひと
つの特徴データを置き換えた場合についてのクラス内分
散V、は、 V、=Σ(am am)” ・・・(II
)である、またクラス間分散vTは、 VT =Σ(dy dt )” ・・・Q
7Jである。
ての分散を調べる他、回帰直線を用いて分散を調べても
よい。ここで、発火ニューロンから回帰直線までの距離
を、元の特徴データの場合についてはdA、ひとつの特
徴データを置き換えた場合についてはd、、またこれら
の平均値をそれぞれdA、d、とする。元の特徴データ
についてのクラス内分散■、は、 ■A=Σ(dA−1A)2 ・・・00)ひと
つの特徴データを置き換えた場合についてのクラス内分
散V、は、 V、=Σ(am am)” ・・・(II
)である、またクラス間分散vTは、 VT =Σ(dy dt )” ・・・Q
7Jである。
したがって分散比Fは、
F=VT / (va xV、) ・・・0
3)となり、この分散°比により、文字認識に対して有
効ではない特徴データが抽出される。
3)となり、この分散°比により、文字認識に対して有
効ではない特徴データが抽出される。
このように、ステップ43およびステップ46において
実行される、発火パターンの変化に有効でない特徴デー
タの抽出は、テクスチャ解析によりコントラストあるい
はモーメントを考慮することにより行ってもよい。また
、統計学の手法として、Bayseの定理を用い、2つ
の発火パターンの独立性を検討してもよい。
実行される、発火パターンの変化に有効でない特徴デー
タの抽出は、テクスチャ解析によりコントラストあるい
はモーメントを考慮することにより行ってもよい。また
、統計学の手法として、Bayseの定理を用い、2つ
の発火パターンの独立性を検討してもよい。
さて、ステップ46において文字認識に有効でない特徴
データが抽出されると、次いでステップ47では、予定
されていた特徴データの抽出が終了したか否か判定され
る。本実施例では、7つの特徴データのうち4つが有効
でないとして除去されると、この特徴データの除去処理
は終了する。
データが抽出されると、次いでステップ47では、予定
されていた特徴データの抽出が終了したか否か判定され
る。本実施例では、7つの特徴データのうち4つが有効
でないとして除去されると、この特徴データの除去処理
は終了する。
これに対し、まだ4つの有効でない特徴データが除去さ
れていないと、ステップ4日においてパラメータNが1
だけ増加せしめられてステップ36へ戻り、次の文字に
ついて上述したのと同様な処理が実行され、有効でない
特徴データが選択されて除去される。
れていないと、ステップ4日においてパラメータNが1
だけ増加せしめられてステップ36へ戻り、次の文字に
ついて上述したのと同様な処理が実行され、有効でない
特徴データが選択されて除去される。
このようにして3つの特徴データが選択されると、以後
はこの3つの特徴データのみを用いて文字認識を行うこ
とが可能になる。しかして本実施例方法によれば、有効
な特徴データのみを用いて文字認識を行うシステムを容
易に開発することができる。またこのようにして得られ
た文字認識システムは、使用される特徴データの数が少
ないため、ニューラルネットワークの容量を必要最小限
まで節減することができ、ニューラルネットワークある
いはこれと等価な構成よりなるデータ処理装置を小型化
することができる。
はこの3つの特徴データのみを用いて文字認識を行うこ
とが可能になる。しかして本実施例方法によれば、有効
な特徴データのみを用いて文字認識を行うシステムを容
易に開発することができる。またこのようにして得られ
た文字認識システムは、使用される特徴データの数が少
ないため、ニューラルネットワークの容量を必要最小限
まで節減することができ、ニューラルネットワークある
いはこれと等価な構成よりなるデータ処理装置を小型化
することができる。
なお、ステップ36において次の文字を読み込む場合、
例えばパターンマツチングを行って前回と同じ文字を読
み込まないようにしてもよい。
例えばパターンマツチングを行って前回と同じ文字を読
み込まないようにしてもよい。
さらに、上記実施例は文字認識を行う場合における有効
な特徴データの選択を行うものであったが、図形を認識
するシステムにおいても同様な方法を通用することがで
き、また記号認識についても全く同様である。
な特徴データの選択を行うものであったが、図形を認識
するシステムにおいても同様な方法を通用することがで
き、また記号認識についても全く同様である。
以上のように本発明によれば、有効な特徴データが絞り
きれていなくても、特徴データを効率的に選択すること
ができ、ひいてはデータ処理装置を小型化することが可
能になる。
きれていなくても、特徴データを効率的に選択すること
ができ、ひいてはデータ処理装置を小型化することが可
能になる。
第1図は本発明の一実施例における有効特徴データの選
択方法を示すフローチャート、第2図は本発明方法を適
用した認識システムの構成例を示すブロック図、 第3図(a)、(b)は出力側のニューラルネットワー
クにおけるニューロンの発火パターンの例を示す図、 第4図は文字群およびその濃度投影を示す図である。 20・・・コンピュータ 21.22.23・・・ニューラルレイヤn・・・ニュ
ーロン
択方法を示すフローチャート、第2図は本発明方法を適
用した認識システムの構成例を示すブロック図、 第3図(a)、(b)は出力側のニューラルネットワー
クにおけるニューロンの発火パターンの例を示す図、 第4図は文字群およびその濃度投影を示す図である。 20・・・コンピュータ 21.22.23・・・ニューラルレイヤn・・・ニュ
ーロン
Claims (1)
- (1)複数の特徴データの組合せよりなる入力データ群
を、ニューラルネットワークあるいはこれと等価な構成
よりなるデータ処理装置によって識別するための特徴デ
ータ選択方法であって、異なる入力データについて一部
の対応特徴データを相互に交換したときの出力の類似性
が高い特徴データを除外し、各入力データのデータ量を
節減することを特徴とするデータ処理装置のための特徴
データ選択方法。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP1335960A JPH03196277A (ja) | 1989-12-25 | 1989-12-25 | データ処理装置のための特徴データ選択方法 |
DE69023106T DE69023106T2 (de) | 1989-12-25 | 1990-12-13 | Kenndatenauswahlverfahren für Datenverarbeitungssystem. |
EP90124142A EP0435099B1 (en) | 1989-12-25 | 1990-12-13 | A method of selecting characteristics data for a data processing system |
US07/627,208 US5185816A (en) | 1989-12-25 | 1990-12-13 | Method of selecting characeteristics data for a data processing system |
KR1019900021430A KR910012982A (ko) | 1989-12-25 | 1990-12-22 | 데이터 처리장치를 위한 특정데이터 선택방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP1335960A JPH03196277A (ja) | 1989-12-25 | 1989-12-25 | データ処理装置のための特徴データ選択方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH03196277A true JPH03196277A (ja) | 1991-08-27 |
Family
ID=18294253
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP1335960A Pending JPH03196277A (ja) | 1989-12-25 | 1989-12-25 | データ処理装置のための特徴データ選択方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US5185816A (ja) |
EP (1) | EP0435099B1 (ja) |
JP (1) | JPH03196277A (ja) |
KR (1) | KR910012982A (ja) |
DE (1) | DE69023106T2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020135432A (ja) * | 2019-02-20 | 2020-08-31 | 株式会社日立ソリューションズ・クリエイト | 学習データの生成方法、学習データ生成装置及びプログラム |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03288285A (ja) * | 1990-04-04 | 1991-12-18 | Takayama:Kk | データ処理装置の学習方法 |
JPH0683792A (ja) * | 1991-06-12 | 1994-03-25 | Hitachi Ltd | ニューラルネットワークの学習装置およびニューラルネットワークの学習パターン呈示方法 |
US5847712A (en) * | 1995-01-03 | 1998-12-08 | University Of Washington | Method and system for generating graphic illustrations according to a stroke texture and a tone |
US9015093B1 (en) | 2010-10-26 | 2015-04-21 | Michael Lamport Commons | Intelligent control with hierarchical stacked neural networks |
US8775341B1 (en) | 2010-10-26 | 2014-07-08 | Michael Lamport Commons | Intelligent control with hierarchical stacked neural networks |
US9495702B2 (en) * | 2011-09-20 | 2016-11-15 | Oracle International Corporation | Dynamic auction monitor with graphic interpretive data change indicators |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4760604A (en) * | 1985-02-15 | 1988-07-26 | Nestor, Inc. | Parallel, multi-unit, adaptive, nonlinear pattern class separator and identifier |
US4805225A (en) * | 1986-11-06 | 1989-02-14 | The Research Foundation Of The State University Of New York | Pattern recognition method and apparatus |
US4965725B1 (en) * | 1988-04-08 | 1996-05-07 | Neuromedical Systems Inc | Neural network based automated cytological specimen classification system and method |
US4945494A (en) * | 1989-03-02 | 1990-07-31 | Texas Instruments Incorporated | Neural network and system |
-
1989
- 1989-12-25 JP JP1335960A patent/JPH03196277A/ja active Pending
-
1990
- 1990-12-13 US US07/627,208 patent/US5185816A/en not_active Expired - Fee Related
- 1990-12-13 EP EP90124142A patent/EP0435099B1/en not_active Expired - Lifetime
- 1990-12-13 DE DE69023106T patent/DE69023106T2/de not_active Expired - Fee Related
- 1990-12-22 KR KR1019900021430A patent/KR910012982A/ko not_active Application Discontinuation
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020135432A (ja) * | 2019-02-20 | 2020-08-31 | 株式会社日立ソリューションズ・クリエイト | 学習データの生成方法、学習データ生成装置及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
EP0435099A3 (en) | 1993-02-24 |
EP0435099A2 (en) | 1991-07-03 |
DE69023106D1 (de) | 1995-11-23 |
KR910012982A (ko) | 1991-08-08 |
EP0435099B1 (en) | 1995-10-18 |
DE69023106T2 (de) | 1996-04-04 |
US5185816A (en) | 1993-02-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5742705A (en) | Method and apparatus for character recognition of handwritten input | |
Zhao et al. | Completed robust local binary pattern for texture classification | |
US6118890A (en) | System and method for broad classification of biometric patterns | |
CN106951832B (zh) | 一种基于手写字符识别的验证方法及装置 | |
WO2018166116A1 (zh) | 车损识别方法、电子装置及计算机可读存储介质 | |
CN108805833B (zh) | 基于条件对抗网络的字帖二值化背景噪声杂点去除方法 | |
CN114402369A (zh) | 人体姿态的识别方法、装置、存储介质及电子设备 | |
US6035063A (en) | Online character recognition system with improved standard strokes processing efficiency | |
CN1322471C (zh) | 比较图案 | |
EP0587863A1 (en) | Character-recognition systems and methods with means to measure endpoint features in character bit-maps | |
Bajić et al. | Chart classification using simplified VGG model | |
CN113822847A (zh) | 基于人工智能的图像评分方法、装置、设备及存储介质 | |
CN110826534A (zh) | 一种基于局部主成分分析的人脸关键点检测方法及系统 | |
JPH03196277A (ja) | データ処理装置のための特徴データ選択方法 | |
CN111414889A (zh) | 基于文字识别的财务报表识别方法及装置 | |
Nandhini et al. | Sign language recognition using convolutional neural network | |
CN115223157A (zh) | 一种基于循环神经网络的电网设备铭牌光学字符识别方法 | |
CN115965987A (zh) | 基于异构架构的表格文字结构化识别方法 | |
JPH0333990A (ja) | マスク処理を用いる光学式文字認識装置及び方法 | |
CN118097311B (zh) | 一种基于深度学习的光标检测方法及系统 | |
Ahmad et al. | Securing Balloting Systems through Iris Scan and Machine Learning | |
LUCULESCU et al. | Feature Extraction Methods Used for Images of Macular Diseases–Part I | |
Bobulski et al. | Fake Face Detection Using Deep Neural Network | |
Kumar et al. | Deep Neural Networks based Handwritten Signature Verification using Machine Learning Algorithms | |
Bhargav et al. | Handwritten Digit Recognition using CNN. |