JPH0821065B2 - 文字認識装置 - Google Patents
文字認識装置Info
- Publication number
- JPH0821065B2 JPH0821065B2 JP1060328A JP6032889A JPH0821065B2 JP H0821065 B2 JPH0821065 B2 JP H0821065B2 JP 1060328 A JP1060328 A JP 1060328A JP 6032889 A JP6032889 A JP 6032889A JP H0821065 B2 JPH0821065 B2 JP H0821065B2
- Authority
- JP
- Japan
- Prior art keywords
- neural network
- category
- identification
- shape
- categories
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/24—Character recognition characterised by the processing or recognition method
- G06V30/242—Division of the character sequences into groups prior to recognition; Selection of dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/285—Selection of pattern recognition techniques, e.g. of classifiers in a multi-classifier system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/24—Character recognition characterised by the processing or recognition method
- G06V30/248—Character recognition characterised by the processing or recognition method involving plural approaches, e.g. verification by template match; Resolving confusion among similar patterns, e.g. "O" versus "Q"
- G06V30/2504—Coarse or fine approaches, e.g. resolution of ambiguities or multiscale approaches
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Character Discrimination (AREA)
- Image Analysis (AREA)
Description
【発明の詳細な説明】 〈産業上の利用分野〉 この発明は、ニューラル・ネットワークを用いて、文
字データが属するカテゴリを認識する文字認識装置に関
する。
字データが属するカテゴリを認識する文字認識装置に関
する。
〈従来の技術〉 従来、ニューラル・ネットワークを用いた文字認識装
置においては、一つのニューラル・ネットワークによっ
て、カテゴリの大分類を行わずに識別対象となる総ての
カテゴリの中から一度に文字データが属するカテゴリを
認識し、その認識結果を出力するようにしている。ある
いは、予め識別対象全カテゴリを大分類して求めた大カ
テゴリを用意しておき、まず標準パターンとの距離計算
等によって大分類処理を実行して文字データが属する大
カテゴリを識別した後、一つのニューラル・ネットワー
クによって上記大カテゴリに含まれるカテゴリの中か
ら、文字データが属するカテゴリを認識し、その認識結
果を出力するようにしている。
置においては、一つのニューラル・ネットワークによっ
て、カテゴリの大分類を行わずに識別対象となる総ての
カテゴリの中から一度に文字データが属するカテゴリを
認識し、その認識結果を出力するようにしている。ある
いは、予め識別対象全カテゴリを大分類して求めた大カ
テゴリを用意しておき、まず標準パターンとの距離計算
等によって大分類処理を実行して文字データが属する大
カテゴリを識別した後、一つのニューラル・ネットワー
クによって上記大カテゴリに含まれるカテゴリの中か
ら、文字データが属するカテゴリを認識し、その認識結
果を出力するようにしている。
〈発明が解決しようとする課題〉 このように、上記文字認識装置においては、総ての識
別対象カテゴリの中から一度に文字データが属するカテ
ゴリを認識する場合、あるいは、大カテゴリの中から文
字データが属するカテゴリを認識する場合のいずれの場
合も一つのニューラル・ネットワークによって認識動作
を実行している。
別対象カテゴリの中から一度に文字データが属するカテ
ゴリを認識する場合、あるいは、大カテゴリの中から文
字データが属するカテゴリを認識する場合のいずれの場
合も一つのニューラル・ネットワークによって認識動作
を実行している。
上記ニューラル・ネットワークは、与えられた学習デ
ータに従って内部の結合係数(ウエイト)を修正する操
作(学習)を繰り返すことによって、自動的に内部のウ
エイトが上記学習データを識別するのに適切な値に収束
していく学習アルゴリズムを有している。したがって、
これを認識装置に応用する場合には、学習データを与え
たときにその学習データが属するカテゴリを呈示して、
総ての識別対象カテゴリの中から学習データが属するカ
テゴリを識別する学習を実行する。そうすると、学習済
みのニューラル・ネットワークは、設定されたウエイト
の値に従って入力データが属するカテゴリを出力するよ
うになるのである。
ータに従って内部の結合係数(ウエイト)を修正する操
作(学習)を繰り返すことによって、自動的に内部のウ
エイトが上記学習データを識別するのに適切な値に収束
していく学習アルゴリズムを有している。したがって、
これを認識装置に応用する場合には、学習データを与え
たときにその学習データが属するカテゴリを呈示して、
総ての識別対象カテゴリの中から学習データが属するカ
テゴリを識別する学習を実行する。そうすると、学習済
みのニューラル・ネットワークは、設定されたウエイト
の値に従って入力データが属するカテゴリを出力するよ
うになるのである。
上記のような学習のアルゴリズムとして、例えばバッ
クプロパゲーションや学習ベクトル量子化2(LVQ2)等
多くのアルゴリズムがある。上記学習のアルゴリズムは
夫々長所と短所を有している。そこで、認識動作を実行
する際に、識別しようとするカテゴリの内容特性に合致
した学習アルゴリズムあるいは識別アルゴリズムを有す
るニューラル・ネットワークが用いられない場合には、
学習動作あるいは認識動作の効率が非常に悪いという問
題や、認識性能が悪くなるという問題がある。
クプロパゲーションや学習ベクトル量子化2(LVQ2)等
多くのアルゴリズムがある。上記学習のアルゴリズムは
夫々長所と短所を有している。そこで、認識動作を実行
する際に、識別しようとするカテゴリの内容特性に合致
した学習アルゴリズムあるいは識別アルゴリズムを有す
るニューラル・ネットワークが用いられない場合には、
学習動作あるいは認識動作の効率が非常に悪いという問
題や、認識性能が悪くなるという問題がある。
そこで、この発明の目的は、識別対象カテゴリの特性
に合致したニューラル・ネットワークに自動的に切り換
えることによって認識性能が高く、かつ、学習効率およ
び認識効率の良い文字認識装置を提供することにある。
に合致したニューラル・ネットワークに自動的に切り換
えることによって認識性能が高く、かつ、学習効率およ
び認識効率の良い文字認識装置を提供することにある。
〈課題を解決するための手段〉 上記目的を達成するため、この発明は、入力された文
字の特徴パターンが属するカテゴリをニューラル・ネッ
トワークを用いて認識する文字認識装置において、予め
カテゴリ識別の際に用いるニューラル・ネットワークの
識別特性に応じたカテゴリの内容特性に基づいて、識別
されるべきカテゴリが文字形状における細部形状差の有
無によって大カテゴリに分類されており、上記大カテゴ
リの中から入力特徴パターンが属する大カテゴリを選出
すると共に、選出された大カテゴリに対応付けられてい
る大カテゴリの内容特性に合致した識別特性を有するニ
ューラル・ネットワークを選択するネットワーク選択部
と、上記大カテゴリ毎の学習の結果得られた学習済みニ
ューラル・ネットワークの形状、学習によって設定され
たウエイト、および上記形状のニューラル・ネットワー
クによるカテゴリ識別の際に用いる識別アルゴリズムを
格納するネットワーク・メモリ部と、上記ネットワーク
選択部によって選択されたニューラル・ネットワークに
基づいて、上記選出された大カテゴリの内容特性に合致
した識別特性を有するニューラル・ネットワークの形
状,ウエイトおよび識別アルゴリズムを上記ネットワー
ク・メモリ部から読み出してセットするニューラル・ネ
ットワーク構造セット部と、上記ニューラル・ネットワ
ーク構造セット部によってセットされたニューラル・ネ
ットワーク構造に従って詳細識別動作を実行して、入力
特徴パターンが属するカテゴリを認識する詳細識別部を
備えたことを特徴としている。
字の特徴パターンが属するカテゴリをニューラル・ネッ
トワークを用いて認識する文字認識装置において、予め
カテゴリ識別の際に用いるニューラル・ネットワークの
識別特性に応じたカテゴリの内容特性に基づいて、識別
されるべきカテゴリが文字形状における細部形状差の有
無によって大カテゴリに分類されており、上記大カテゴ
リの中から入力特徴パターンが属する大カテゴリを選出
すると共に、選出された大カテゴリに対応付けられてい
る大カテゴリの内容特性に合致した識別特性を有するニ
ューラル・ネットワークを選択するネットワーク選択部
と、上記大カテゴリ毎の学習の結果得られた学習済みニ
ューラル・ネットワークの形状、学習によって設定され
たウエイト、および上記形状のニューラル・ネットワー
クによるカテゴリ識別の際に用いる識別アルゴリズムを
格納するネットワーク・メモリ部と、上記ネットワーク
選択部によって選択されたニューラル・ネットワークに
基づいて、上記選出された大カテゴリの内容特性に合致
した識別特性を有するニューラル・ネットワークの形
状,ウエイトおよび識別アルゴリズムを上記ネットワー
ク・メモリ部から読み出してセットするニューラル・ネ
ットワーク構造セット部と、上記ニューラル・ネットワ
ーク構造セット部によってセットされたニューラル・ネ
ットワーク構造に従って詳細識別動作を実行して、入力
特徴パターンが属するカテゴリを認識する詳細識別部を
備えたことを特徴としている。
〈作用〉 文字の特徴パターンがネットワーク選択部に入力され
ると、上記入力特徴パターンが属する大カテゴリが選出
されると共に、この選出された大カテゴリの内容特性に
合致した識別特性を有するニューラル・ネットワークが
選択される。そうすると、この選択されたニューラル・
ネットワークに基づいて、上記選出された大カテゴリの
内容特性に合致した識別特性を有する学習済みのニュー
ラル・ネットワークの形状、学習によって設定されたウ
エイト、および上記形状のニューラル・ネットワークに
よるカテゴリ識別の際に用いる識別アルゴリズムが、ニ
ューラル・ネットワーク構造セット部によってネットワ
ーク・メモリ部から読み出されてセットされる。そし
て、このニューラル・ネットワーク構造セット部によっ
てセットされたニューラル・ネットワーク構造に従って
詳細識別動作が実行され、入力された文字の特徴パター
ンが属するカテゴリが認識される。したがって、大カテ
ゴリに含まれるカテゴリの中から上記入力特徴パターン
が属するカテゴリを識別する際に、上記大カテゴリに含
まれるカテゴリの内容特性(すなわち、文字形状におけ
る細部形状差の有無)に合致した識別特性を有するニュ
ーラル・ネットワークを用いて文字を識別することがで
きるのである。
ると、上記入力特徴パターンが属する大カテゴリが選出
されると共に、この選出された大カテゴリの内容特性に
合致した識別特性を有するニューラル・ネットワークが
選択される。そうすると、この選択されたニューラル・
ネットワークに基づいて、上記選出された大カテゴリの
内容特性に合致した識別特性を有する学習済みのニュー
ラル・ネットワークの形状、学習によって設定されたウ
エイト、および上記形状のニューラル・ネットワークに
よるカテゴリ識別の際に用いる識別アルゴリズムが、ニ
ューラル・ネットワーク構造セット部によってネットワ
ーク・メモリ部から読み出されてセットされる。そし
て、このニューラル・ネットワーク構造セット部によっ
てセットされたニューラル・ネットワーク構造に従って
詳細識別動作が実行され、入力された文字の特徴パター
ンが属するカテゴリが認識される。したがって、大カテ
ゴリに含まれるカテゴリの中から上記入力特徴パターン
が属するカテゴリを識別する際に、上記大カテゴリに含
まれるカテゴリの内容特性(すなわち、文字形状におけ
る細部形状差の有無)に合致した識別特性を有するニュ
ーラル・ネットワークを用いて文字を識別することがで
きるのである。
〈実施例〉 以下、この発明を図示の実施例により詳細に説明す
る。
る。
第1図はこの発明の文字認識装置の一実施例を示すブ
ロック図である。この文字認識装置は、図示しない特徴
抽出部等によって抽出された入力特徴パターンが入力呈
示部1から呈示されると、この呈示された入力特徴パタ
ーンと標準パターンメモリ部3に識別対象カテゴリ別に
格納されている標準パターンとの類似度計算が類似度計
算部2によって行われる。ここで、上記特徴パターンお
よび標準パターンとして、例えば文字を8×8の格子に
区切り、その中の画像の濃度を特徴量とするメッシュ特
徴パターン等がある。
ロック図である。この文字認識装置は、図示しない特徴
抽出部等によって抽出された入力特徴パターンが入力呈
示部1から呈示されると、この呈示された入力特徴パタ
ーンと標準パターンメモリ部3に識別対象カテゴリ別に
格納されている標準パターンとの類似度計算が類似度計
算部2によって行われる。ここで、上記特徴パターンお
よび標準パターンとして、例えば文字を8×8の格子に
区切り、その中の画像の濃度を特徴量とするメッシュ特
徴パターン等がある。
ネットワーク選択部4は、類似度計算部2による類似
度計算結果に基づいて、入力特徴パターンが属する大カ
テゴリを選択する(すなわち、大分類を行う)と共に、
選択した大カテゴリに対応したニューラル・ネットワー
クを選択する。ここで、上記大カテゴリは総ての識別対
象カテゴリをその内容特性に基づいて分類して求められ
る。そして、この大カテゴリにはその大カテゴリに含ま
れるカテゴリの内容特性に合致した識別特性を有するニ
ューラル・ネットワークが対応付けられている。したが
って、大カテゴリを選択すると、おのずと大カテゴリに
含まれるカテゴリの特性に合致する識別特性を有するニ
ューラル・ネットワークが選出されることになる。
度計算結果に基づいて、入力特徴パターンが属する大カ
テゴリを選択する(すなわち、大分類を行う)と共に、
選択した大カテゴリに対応したニューラル・ネットワー
クを選択する。ここで、上記大カテゴリは総ての識別対
象カテゴリをその内容特性に基づいて分類して求められ
る。そして、この大カテゴリにはその大カテゴリに含ま
れるカテゴリの内容特性に合致した識別特性を有するニ
ューラル・ネットワークが対応付けられている。したが
って、大カテゴリを選択すると、おのずと大カテゴリに
含まれるカテゴリの特性に合致する識別特性を有するニ
ューラル・ネットワークが選出されることになる。
そうすると、ウエイト・セット部5は、ネットワーク
選択部4によって選択されたニューラル・ネットワーク
に従って、ウエイト・メモリ部6に大カテゴリ別に格納
されている学習済みニューラル・ネットワークの形状,
認識アルゴリズムおよびウエイトを選出してセットす
る。こうして、大カテゴリに含まれる複数のカテゴリの
中から入力特徴パターンが属するカテゴリを識別する
(すなわち、詳細識別を行う)のに最適な構造のニュー
ラル・ネットワークが設定されるのである。このニュー
ラル・ネットワークは、上記大カテゴリに含まれる各カ
テゴリ識別の学習が既に成されておりその際に設定され
たウエイトと用いられた識別アルゴリズムがセットされ
ているのである。
選択部4によって選択されたニューラル・ネットワーク
に従って、ウエイト・メモリ部6に大カテゴリ別に格納
されている学習済みニューラル・ネットワークの形状,
認識アルゴリズムおよびウエイトを選出してセットす
る。こうして、大カテゴリに含まれる複数のカテゴリの
中から入力特徴パターンが属するカテゴリを識別する
(すなわち、詳細識別を行う)のに最適な構造のニュー
ラル・ネットワークが設定されるのである。このニュー
ラル・ネットワークは、上記大カテゴリに含まれる各カ
テゴリ識別の学習が既に成されておりその際に設定され
たウエイトと用いられた識別アルゴリズムがセットされ
ているのである。
そうすると、詳細識別部7は入力呈示部1から入力特
徴パターンを取り込んで、ウエイト・セット部5によっ
てセットされたネットワーク形状,ウエイトおよび識別
アルゴリズムによって詳細識別動作を実行する。そし
て、得られた識別結果は図示しないI/O部を介して外部
装置に送出される。CPU(中央処理装置)8は入力呈示
部1,類似度計算部2,標準パターンメモリ部3,ネットワー
ク選択部4,ウエイト・セット部5,ウエイト・メモリ部6
および詳細識別部7を制御して文字認識動作を実行す
る。
徴パターンを取り込んで、ウエイト・セット部5によっ
てセットされたネットワーク形状,ウエイトおよび識別
アルゴリズムによって詳細識別動作を実行する。そし
て、得られた識別結果は図示しないI/O部を介して外部
装置に送出される。CPU(中央処理装置)8は入力呈示
部1,類似度計算部2,標準パターンメモリ部3,ネットワー
ク選択部4,ウエイト・セット部5,ウエイト・メモリ部6
および詳細識別部7を制御して文字認識動作を実行す
る。
ここで、上記ウエイト・セット部5,ウエイト・メモリ
部6および詳細識別部7は、詳細識別動作を実行するニ
ューラル・ネットワーク9の一部を成している。このニ
ューラル・ネットワーク9は予め特定の構造を有するも
のではなく、上述のように、ウエイト・セット部5によ
って、ウエイト・メモリ部6に格納されたニューラル・
ネットワークの形状,識別アルゴリズムおよびウエイト
が選択されてセットされることによってその構造が決定
されるのである。
部6および詳細識別部7は、詳細識別動作を実行するニ
ューラル・ネットワーク9の一部を成している。このニ
ューラル・ネットワーク9は予め特定の構造を有するも
のではなく、上述のように、ウエイト・セット部5によ
って、ウエイト・メモリ部6に格納されたニューラル・
ネットワークの形状,識別アルゴリズムおよびウエイト
が選択されてセットされることによってその構造が決定
されるのである。
次に、上記CPU8によって行われる1文字認識動作につ
いて詳細に述べる。第2図は1文字認識動作のフローチ
ャートである。
いて詳細に述べる。第2図は1文字認識動作のフローチ
ャートである。
ステップS1で、入力呈示部1に呈示された入力特徴パ
ターンと特徴メモリ部3に格納された標準パターンとの
類似度計算が実行され、その計算結果に基づいて入力特
徴パターンが属する大カテゴリを選択する大分類ルーチ
ンが実行される。
ターンと特徴メモリ部3に格納された標準パターンとの
類似度計算が実行され、その計算結果に基づいて入力特
徴パターンが属する大カテゴリを選択する大分類ルーチ
ンが実行される。
ステップS2で、大カテゴリ番号i(1≦i≦I)に、
上記ステップS1において選択された大カテゴリに付加さ
れた番号がセットされる。
上記ステップS1において選択された大カテゴリに付加さ
れた番号がセットされる。
ステップS3で、上記ステップS2においてセットされた
大カテゴリ番号iが何番であるかが判別される。その結
果“1"であればステップS4に進み、“2"であればステッ
プS7に進み、以下同様にして“I"であればステップS10
に進む。
大カテゴリ番号iが何番であるかが判別される。その結
果“1"であればステップS4に進み、“2"であればステッ
プS7に進み、以下同様にして“I"であればステップS10
に進む。
ステップS4で、上記ステップS2においてセットされた
大カテゴリ番号“1"に従って、ニューラル・ネットワー
ク1が選択される。
大カテゴリ番号“1"に従って、ニューラル・ネットワー
ク1が選択される。
ステップS5で、上記ステップS4において選択されたニ
ューラル・ネットワーク1に対応したネットワーク形
状,ウエイトおよび識別アルゴリズムがセットされ、詳
細識別動作を実行する際のニューラル・ネットワーク1
の構造が設定される。
ューラル・ネットワーク1に対応したネットワーク形
状,ウエイトおよび識別アルゴリズムがセットされ、詳
細識別動作を実行する際のニューラル・ネットワーク1
の構造が設定される。
ステップS6で、上記ステップS5において設定されたニ
ューラル・ネットワーク1の構造に基づいて、詳細識別
動作が実行されて入力特徴パターンが属するカテゴリが
認識され、1文字認識動作を終了する。
ューラル・ネットワーク1の構造に基づいて、詳細識別
動作が実行されて入力特徴パターンが属するカテゴリが
認識され、1文字認識動作を終了する。
ステップS7,ステップS8およびステップS9で、上記ス
テップS2においてセットされた大カテゴリ番号“2"に従
って、ニューラル・ネットワーク2に対応したネットワ
ーク形状,ウエイトおよび識別アルゴリズムがセットさ
れ、ニューラル・ネットワーク2の構造が設定される。
そして、ニューラル・ネットワーク2によって詳細識別
動作が実行されて入力特徴パターンが属するカテゴリが
認識され、1文字認識動作を終了する。
テップS2においてセットされた大カテゴリ番号“2"に従
って、ニューラル・ネットワーク2に対応したネットワ
ーク形状,ウエイトおよび識別アルゴリズムがセットさ
れ、ニューラル・ネットワーク2の構造が設定される。
そして、ニューラル・ネットワーク2によって詳細識別
動作が実行されて入力特徴パターンが属するカテゴリが
認識され、1文字認識動作を終了する。
ステップS10,ステップS11およびステップS12で、上記
ステップS2においてセットされた大カテゴリ番号“I"に
従って、ニューラル・ネットワークIの構造が設定され
る。そして、詳細識別動作が実行されて入力特徴パター
ンが属するカテゴリが認識され、1文字認識動作を終了
する。
ステップS2においてセットされた大カテゴリ番号“I"に
従って、ニューラル・ネットワークIの構造が設定され
る。そして、詳細識別動作が実行されて入力特徴パター
ンが属するカテゴリが認識され、1文字認識動作を終了
する。
第3図は第2図の1文字認識動作のフローチャートに
おけるステップS1で実行される大分類ルーチンのフロー
チャートの一例である。以下、第3図に従って大分類動
作の一例について詳細に説明する。
おけるステップS1で実行される大分類ルーチンのフロー
チャートの一例である。以下、第3図に従って大分類動
作の一例について詳細に説明する。
ステップS21で、入力呈示部1によって呈示された入
力特徴パターンと、標準パターンメモリ部3に格納され
ている全識別対象カテゴリの標準パターンとのユークリ
ッド距離が計算される。
力特徴パターンと、標準パターンメモリ部3に格納され
ている全識別対象カテゴリの標準パターンとのユークリ
ッド距離が計算される。
ステップS22で、上記ステップS21において算出された
ユークリッド距離が大カテゴリ毎に合計される。
ユークリッド距離が大カテゴリ毎に合計される。
ステップS23で、上記ステップS22において算出された
合計距離に基づいて大カテゴリ毎の平均距離が選出され
る。
合計距離に基づいて大カテゴリ毎の平均距離が選出され
る。
ステップS24で、上記ステップS23において算出された
大カテゴリ毎の平均距離に基づいて、最小平均距離が算
出される。
大カテゴリ毎の平均距離に基づいて、最小平均距離が算
出される。
ステップS25で、上記ステップS24において選出された
最小平均距離に対応する大カテゴリの番号iが出力さ
れ、大分類ルーチンを終了する。
最小平均距離に対応する大カテゴリの番号iが出力さ
れ、大分類ルーチンを終了する。
次に、具体的な例を上げて文字認識動作をさらに詳細
に説明する。第4図は平仮名文字「あ」および「ば」に
おける認識過程を示す図であり、第4図(a)は入力文
字、第4図(b)は入力文字が属する大カテゴリ、第4
図(c)は大カテゴリに対応する学習アルゴリズム、第
4図(d)は詳細識別動作に用いられるニューラル・ネ
ットワーク、第4図(e)は認識結果を示す。以下、第
4図,第2図および第3図に従って、文字認識動作をよ
り具体的に説明する。
に説明する。第4図は平仮名文字「あ」および「ば」に
おける認識過程を示す図であり、第4図(a)は入力文
字、第4図(b)は入力文字が属する大カテゴリ、第4
図(c)は大カテゴリに対応する学習アルゴリズム、第
4図(d)は詳細識別動作に用いられるニューラル・ネ
ットワーク、第4図(e)は認識結果を示す。以下、第
4図,第2図および第3図に従って、文字認識動作をよ
り具体的に説明する。
この場合における全識別カテゴリは「あ」,「お」,
「ち」,「は」,「ば」および「ぱ」である。上述のよ
うに、ニューラル・ネットワークの学習アルゴリズムと
して、バックプロパゲーションとLVQ2がある。そして、
バックプロパゲーションによる学習は時間が掛かるとい
う欠点がある。しかしながら、バックプロパゲーション
によって学習されたニューラル・ネットワークは特徴パ
ターンの細部の違いを拡大して識別できるという長所が
ある。また、LVQ2によって学習されたニューラル・ネッ
トワークは特徴パターンの細部の違いを識別できないと
いう欠点がある。しかしながら、LVQ2は学習に要する時
間は短いという長所がある。そこで、この実施例におけ
る全識別対象カテゴリの大カテゴリへの分類は、予め平
仮名の形状特性(形状の細部の違いの有り無し)によっ
て行う。すなわち、大カテゴリ番号“1"の大カテゴリは
大局的な形状差を有するカテゴリ「あ」,「お」および
「ち」から成る。また、大カテゴリ番号“2"の大カテゴ
リは、細部の形状差を有するカテゴリ「は」,「ば」お
よび「ぱ」から成る。
「ち」,「は」,「ば」および「ぱ」である。上述のよ
うに、ニューラル・ネットワークの学習アルゴリズムと
して、バックプロパゲーションとLVQ2がある。そして、
バックプロパゲーションによる学習は時間が掛かるとい
う欠点がある。しかしながら、バックプロパゲーション
によって学習されたニューラル・ネットワークは特徴パ
ターンの細部の違いを拡大して識別できるという長所が
ある。また、LVQ2によって学習されたニューラル・ネッ
トワークは特徴パターンの細部の違いを識別できないと
いう欠点がある。しかしながら、LVQ2は学習に要する時
間は短いという長所がある。そこで、この実施例におけ
る全識別対象カテゴリの大カテゴリへの分類は、予め平
仮名の形状特性(形状の細部の違いの有り無し)によっ
て行う。すなわち、大カテゴリ番号“1"の大カテゴリは
大局的な形状差を有するカテゴリ「あ」,「お」および
「ち」から成る。また、大カテゴリ番号“2"の大カテゴ
リは、細部の形状差を有するカテゴリ「は」,「ば」お
よび「ぱ」から成る。
「あ」の特徴パターンが入力呈示部1に呈示される
と、第2図のステップS1で次のようにして大分類が行わ
れる。すなわち、第3図のステップS21〜ステップS25に
おいて、まず「あ」の特徴パターンと「あ」,「お」,
「ち」,「は」,「ば」および「ぱ」の標準パターンと
のユークリッド距離が計算され、次に「あ」,「お」お
よび「ち」に対する距離の平均値と、「は」,「ば」お
よび「ぱ」に対する距離の平均値が算出される。そし
て、両平均値が比較されて最小平均距離(この場合は、
カテゴリ「あ」,「お」および「ち」から成る大カテゴ
リ番号“1"の大カテゴリの平均距離)が選択され、大カ
テゴリ番号“1"が出力される。
と、第2図のステップS1で次のようにして大分類が行わ
れる。すなわち、第3図のステップS21〜ステップS25に
おいて、まず「あ」の特徴パターンと「あ」,「お」,
「ち」,「は」,「ば」および「ぱ」の標準パターンと
のユークリッド距離が計算され、次に「あ」,「お」お
よび「ち」に対する距離の平均値と、「は」,「ば」お
よび「ぱ」に対する距離の平均値が算出される。そし
て、両平均値が比較されて最小平均距離(この場合は、
カテゴリ「あ」,「お」および「ち」から成る大カテゴ
リ番号“1"の大カテゴリの平均距離)が選択され、大カ
テゴリ番号“1"が出力される。
そうすると、第2図のステップS2〜ステップS4におい
て、出力された大カテゴリ番号“1"に基づいてニューラ
ル・ネットワーク1が選択される。そして、ステップS5
においてニューラル・ネットワーク1のネットワーク形
状,ウエイトおよびアルゴリズムがセットされる。
て、出力された大カテゴリ番号“1"に基づいてニューラ
ル・ネットワーク1が選択される。そして、ステップS5
においてニューラル・ネットワーク1のネットワーク形
状,ウエイトおよびアルゴリズムがセットされる。
ここで、既に述べたように、バックプロパゲーション
によって学習されたニューラル・ネットワークは特徴パ
ターンの細部の違いを拡大して識別できる。また、LVQ2
によって学習されたニューラル・ネットワークは特徴パ
ターンの大局的な違いを識別できる。そこで、大局的な
形状差を有する大カテゴリ番号“1"の大カテゴリに対応
して選択されるニューラル・ネットワーク1として、LV
Q2によって学習されたニューラル・ネットワークを割り
当てる。そして、予め大カテゴリ番号“1"の大カテゴリ
に含まれるカテゴリ「あ」,「お」および「ち」を分類
する学習をLVQ2によって行い、この学習によって設定さ
れたウエイトと、その学習に用いられたネットワーク形
状(すなわち、コホーネン型ニューラル・ネットワーク
の形状)をウエイト・メモリ部6に大カテゴリ番号“1"
に対応付けて格納しておくのである。その結果、第2図
のステップS5において、LVQ2によってカテゴリ「あ」,
「お」および「ち」を分類する学習が行われた際のネッ
トワーク形状と、その学習で設定されたウエイトがセッ
トされるのである。
によって学習されたニューラル・ネットワークは特徴パ
ターンの細部の違いを拡大して識別できる。また、LVQ2
によって学習されたニューラル・ネットワークは特徴パ
ターンの大局的な違いを識別できる。そこで、大局的な
形状差を有する大カテゴリ番号“1"の大カテゴリに対応
して選択されるニューラル・ネットワーク1として、LV
Q2によって学習されたニューラル・ネットワークを割り
当てる。そして、予め大カテゴリ番号“1"の大カテゴリ
に含まれるカテゴリ「あ」,「お」および「ち」を分類
する学習をLVQ2によって行い、この学習によって設定さ
れたウエイトと、その学習に用いられたネットワーク形
状(すなわち、コホーネン型ニューラル・ネットワーク
の形状)をウエイト・メモリ部6に大カテゴリ番号“1"
に対応付けて格納しておくのである。その結果、第2図
のステップS5において、LVQ2によってカテゴリ「あ」,
「お」および「ち」を分類する学習が行われた際のネッ
トワーク形状と、その学習で設定されたウエイトがセッ
トされるのである。
そうした後、第2図のステップS6において、セットさ
れたコホーネン型ニューラル・ネットワークの入力ノー
ドに「あ」の特徴パターンが入力され、セットされたウ
エイトを用いてコホーネン型ニューラル・ネットワーク
の識別アルゴリズムによって詳細識別動作が実行され、
認識結果「あ」が出力される。その際に、コホーネン型
ニューラル・ネットワークの学習動作および詳細識別動
作は短時間に行うことができるので、「あ」認識の準備
や実行を効率良く行うことができるのである。また、大
カテゴリ番号“1"の大カテゴリに含まれるカテゴリは細
部の形状差を有しないので、LVQ2で学習されたニューラ
ル・ネットワーク1(すなわち、コホーネン型ニューラ
ル・ネットワーク)でも「あ」が正しく認識されるので
ある。
れたコホーネン型ニューラル・ネットワークの入力ノー
ドに「あ」の特徴パターンが入力され、セットされたウ
エイトを用いてコホーネン型ニューラル・ネットワーク
の識別アルゴリズムによって詳細識別動作が実行され、
認識結果「あ」が出力される。その際に、コホーネン型
ニューラル・ネットワークの学習動作および詳細識別動
作は短時間に行うことができるので、「あ」認識の準備
や実行を効率良く行うことができるのである。また、大
カテゴリ番号“1"の大カテゴリに含まれるカテゴリは細
部の形状差を有しないので、LVQ2で学習されたニューラ
ル・ネットワーク1(すなわち、コホーネン型ニューラ
ル・ネットワーク)でも「あ」が正しく認識されるので
ある。
一方、「ば」の特徴パターンが呈示されると、上述の
ようにして大分類が行われる。すなわち、「あ」,
「お」および「ち」に対する距離の平均値と、「は」,
「ば」および「ぱ」に対する距離の平均値が算出され、
最小平均距離(この場合は、カテゴリ「は」,「ば」お
よび「ぱ」からなる大カテゴリの平均距離)が選択さ
れ、大カテゴリ番号“2"が出力される。そして、ニュー
ラル・ネットワーク2が選択される。この場合には、細
部の形状差を有する大カテゴリ番号“2"の大カテゴリに
対応してバックプロパゲーションによって学習されたニ
ューラル・ネットワークが選択される。その結果、予め
バックプロパゲーションによってカテゴリ「は」,
「ば」および「ぱ」を分類する学習において設定された
ウエイトと、その学習の場合に用いられたネットワーク
形状(すなわち、パーセプトロン型ニューラル・ネット
ワークの形状)がセットされるのである。
ようにして大分類が行われる。すなわち、「あ」,
「お」および「ち」に対する距離の平均値と、「は」,
「ば」および「ぱ」に対する距離の平均値が算出され、
最小平均距離(この場合は、カテゴリ「は」,「ば」お
よび「ぱ」からなる大カテゴリの平均距離)が選択さ
れ、大カテゴリ番号“2"が出力される。そして、ニュー
ラル・ネットワーク2が選択される。この場合には、細
部の形状差を有する大カテゴリ番号“2"の大カテゴリに
対応してバックプロパゲーションによって学習されたニ
ューラル・ネットワークが選択される。その結果、予め
バックプロパゲーションによってカテゴリ「は」,
「ば」および「ぱ」を分類する学習において設定された
ウエイトと、その学習の場合に用いられたネットワーク
形状(すなわち、パーセプトロン型ニューラル・ネット
ワークの形状)がセットされるのである。
そうした後、このセットされたパーセプトロン型ニュ
ーラル・ネットワークの入力ユニットに「ば」の特徴パ
ターンが入力され、セットされたウエイトを用いてパー
セプトロン型ニューラル・ネットワークの識別アルゴリ
ズムによって詳細識別動作が実行される。そうして、
「ば」の特徴パターンの細部の違いが拡大されて正しく
識別され、認識結果「ば」が出力される。すなわち、入
力特徴パターンが属するカテゴリが、その入力特徴パタ
ーンと識別しにくい特徴パターンが属するカテゴリと正
しく区別して識別されるのである。
ーラル・ネットワークの入力ユニットに「ば」の特徴パ
ターンが入力され、セットされたウエイトを用いてパー
セプトロン型ニューラル・ネットワークの識別アルゴリ
ズムによって詳細識別動作が実行される。そうして、
「ば」の特徴パターンの細部の違いが拡大されて正しく
識別され、認識結果「ば」が出力される。すなわち、入
力特徴パターンが属するカテゴリが、その入力特徴パタ
ーンと識別しにくい特徴パターンが属するカテゴリと正
しく区別して識別されるのである。
このように、この発明の文字認識装置は、予め識別対
象となる全カテゴリを、ニューラル・ネットワークの識
別アルゴリズム特性に合致したカテゴリの内容特性に基
づいて文字形状における細部形状差の有無によって大カ
テゴリに分類しておき、まず入力された文字特徴パター
ンが属する大カテゴリを選択する。次に、選択された大
カテゴリのカテゴリの内容特性に合致した識別アルゴリ
ズム特性を有する学習済みニューラル・ネットワークを
用いて、上記選択された大カテゴリに含まれるカテゴリ
の中から入力特徴パターンが属するカテゴリを認識する
ので、大カテゴリに含まれるカテゴリの中から入力特徴
パターンが属するカテゴリを認識する際に、その大カテ
ゴリに含まれるカテゴリを識別するのに最もふさわしい
ニューラル・ネットワークを用いて認識することができ
る。したがって、文字特徴パターンが属するカテゴリを
効率良く、しかも、精度良く認識することができるので
ある。
象となる全カテゴリを、ニューラル・ネットワークの識
別アルゴリズム特性に合致したカテゴリの内容特性に基
づいて文字形状における細部形状差の有無によって大カ
テゴリに分類しておき、まず入力された文字特徴パター
ンが属する大カテゴリを選択する。次に、選択された大
カテゴリのカテゴリの内容特性に合致した識別アルゴリ
ズム特性を有する学習済みニューラル・ネットワークを
用いて、上記選択された大カテゴリに含まれるカテゴリ
の中から入力特徴パターンが属するカテゴリを認識する
ので、大カテゴリに含まれるカテゴリの中から入力特徴
パターンが属するカテゴリを認識する際に、その大カテ
ゴリに含まれるカテゴリを識別するのに最もふさわしい
ニューラル・ネットワークを用いて認識することができ
る。したがって、文字特徴パターンが属するカテゴリを
効率良く、しかも、精度良く認識することができるので
ある。
上記実施例においては、大カテゴリを選択する際の大
分類ルーチンは従来から用いられている類似度計算によ
って実行している。しかしながら、この発明はこれに限
定されるものではなく、大分類ルーチンもニューラル・
ネットワークを用いて実施してもよい。
分類ルーチンは従来から用いられている類似度計算によ
って実行している。しかしながら、この発明はこれに限
定されるものではなく、大分類ルーチンもニューラル・
ネットワークを用いて実施してもよい。
〈発明の効果〉 以上より明らかなように、この発明の文字認識装置
は、ネットワーク選択部,ネットワーク・メモリ部,ニ
ューラル・ネットワーク構造セット部および詳細識別部
を有して、文字特徴パターンが入力されると、上記ネッ
トワーク選択部で上記文字特徴パターンが属する大カテ
ゴリを選出すると共に、この選出された大カテゴリの細
部形状差の有無という内容特性に合致したニューラル・
ネットワークを選択し、上記ニューラル・ネットワーク
構造セット部で、上記選出された大カテゴリの内容特性
に合致した学習済みのニューラル・ネットワークの形
状,ウエイトおよび識別アルゴリズムを上記ネットワー
ク・メモリ部から読み出してセットし、このセットされ
たニューラル・ネットワーク構造に従って、上記詳細識
別部で識別動作を実行するので、大カテゴリに含まれる
カテゴリの中から文字特徴パターンが属するカテゴリを
識別する詳細識別動作を、上記大カテゴリに含まれるカ
テゴリの内容特性に合致した識別特性を有するニューラ
ル・ネットワークによって自動的に実行することができ
る。
は、ネットワーク選択部,ネットワーク・メモリ部,ニ
ューラル・ネットワーク構造セット部および詳細識別部
を有して、文字特徴パターンが入力されると、上記ネッ
トワーク選択部で上記文字特徴パターンが属する大カテ
ゴリを選出すると共に、この選出された大カテゴリの細
部形状差の有無という内容特性に合致したニューラル・
ネットワークを選択し、上記ニューラル・ネットワーク
構造セット部で、上記選出された大カテゴリの内容特性
に合致した学習済みのニューラル・ネットワークの形
状,ウエイトおよび識別アルゴリズムを上記ネットワー
ク・メモリ部から読み出してセットし、このセットされ
たニューラル・ネットワーク構造に従って、上記詳細識
別部で識別動作を実行するので、大カテゴリに含まれる
カテゴリの中から文字特徴パターンが属するカテゴリを
識別する詳細識別動作を、上記大カテゴリに含まれるカ
テゴリの内容特性に合致した識別特性を有するニューラ
ル・ネットワークによって自動的に実行することができ
る。
したがって、大局的差によって分類された大カテゴリ
における詳細識別動作の場合には、認識動作の速いコホ
ーネン型ニューラル・ネットワークに自動的に切り換え
て迅速に識別し、細部の違いによって分類された大カテ
ゴリにおける詳細識別動作の場合には、細部の違いを正
確に認識できるパーセプトロン型ニューラル・ネットワ
ークに自動的に切り換えて正確に認識することができ、
文字特徴パターンが属するカテゴリを効率良く、しか
も、精度よく認識することができる。
における詳細識別動作の場合には、認識動作の速いコホ
ーネン型ニューラル・ネットワークに自動的に切り換え
て迅速に識別し、細部の違いによって分類された大カテ
ゴリにおける詳細識別動作の場合には、細部の違いを正
確に認識できるパーセプトロン型ニューラル・ネットワ
ークに自動的に切り換えて正確に認識することができ、
文字特徴パターンが属するカテゴリを効率良く、しか
も、精度よく認識することができる。
第1図はこの発明の文字認識装置の一実施例におけるブ
ロック図、第2図は1文字認識動作のフローチャート、
第3図は第2図における大分類ルーチンのフローチャー
ト、第4図は平仮名認識過程の一例を示す図である。 1…入力呈示部、2…類似度計算部、3…標準パターン
メモリ部、4…ネットワーク選択部、5…ウエイト・セ
ット部、6…ウエイト・メモリ部、7…詳細識別部、8
…CPU。
ロック図、第2図は1文字認識動作のフローチャート、
第3図は第2図における大分類ルーチンのフローチャー
ト、第4図は平仮名認識過程の一例を示す図である。 1…入力呈示部、2…類似度計算部、3…標準パターン
メモリ部、4…ネットワーク選択部、5…ウエイト・セ
ット部、6…ウエイト・メモリ部、7…詳細識別部、8
…CPU。
Claims (1)
- 【請求項1】入力された文字の特徴パターンが属するカ
テゴリをニューラル・ネットワークを用いて認識する文
字認識装置において、 予めカテゴリ識別の際に用いるニューラル・ネットワー
クの識別特性に応じたカテゴリの内容特性に基づいて、
識別されるべきカテゴリが文字形状における細部形状差
の有無によって大カテゴリに分類されており、上記大カ
テゴリの中から入力特徴パターンが属する大カテゴリを
選出すると共に、選出された大カテゴリに対応付けられ
ている大カテゴリの内容特性に合致した識別特性を有す
るニューラル・ネットワークを選択するネットワーク選
択部と、 上記大カテゴリ毎の学習の結果得られた学習済みニュー
ラル・ネットワークの形状、学習によって設定されたウ
エイト、および上記形状のニューラル・ネットワークに
よるカテゴリ識別の際に用いる識別アルゴリズムを格納
するネットワーク・メモリ部と、 上記ネットワーク選択部によって選択されたニューラル
・ネットワークに基づいて、上記選出された大カテゴリ
の内容特性に合致した識別特性を有するニューラル・ネ
ットワークの形状,ウエイトおよび識別アルゴリズムを
上記ネットワーク・メモリ部から読み出してセットする
ニューラル・ネットワーク構造セット部と、 上記ニューラル・ネットワーク構造セット部によってセ
ットされたニューラル・ネットワーク構造に従って詳細
識別動作を実行して、入力特徴パターンが属するカテゴ
リを認識する詳細識別部を備えたことを特徴とする文字
認識装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP1060328A JPH0821065B2 (ja) | 1989-03-13 | 1989-03-13 | 文字認識装置 |
US07/491,039 US5119438A (en) | 1989-03-13 | 1990-03-09 | Recognizing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP1060328A JPH0821065B2 (ja) | 1989-03-13 | 1989-03-13 | 文字認識装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH02238588A JPH02238588A (ja) | 1990-09-20 |
JPH0821065B2 true JPH0821065B2 (ja) | 1996-03-04 |
Family
ID=13138993
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP1060328A Expired - Fee Related JPH0821065B2 (ja) | 1989-03-13 | 1989-03-13 | 文字認識装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US5119438A (ja) |
JP (1) | JPH0821065B2 (ja) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0331975A (ja) * | 1989-06-28 | 1991-02-12 | Akira Iwata | パターン識別装置 |
US5151951A (en) * | 1990-03-15 | 1992-09-29 | Sharp Kabushiki Kaisha | Character recognition device which divides a single character region into subregions to obtain a character code |
JP2763398B2 (ja) * | 1990-11-20 | 1998-06-11 | キヤノン株式会社 | パターン認識装置 |
US5220614A (en) * | 1991-02-22 | 1993-06-15 | Professional Coin Grading Service, Inc. | Automated coin grading system |
US5901255A (en) * | 1992-02-07 | 1999-05-04 | Canon Kabushiki Kaisha | Pattern recognition method and apparatus capable of selecting another one of plural pattern recognition modes in response to a number of rejects of recognition-processed pattern segments |
DE4211171C2 (de) * | 1992-04-03 | 2003-03-20 | Diehl Stiftung & Co | Verfahren zum Erkennen von interessierenden Mustern |
US5438629A (en) * | 1992-06-19 | 1995-08-01 | United Parcel Service Of America, Inc. | Method and apparatus for input classification using non-spherical neurons |
ES2150431T3 (es) * | 1992-06-19 | 2000-12-01 | United Parcel Service Inc | Metodo y dispositivo para la clasificacion que utiliza una red neuronal. |
JP2723118B2 (ja) * | 1992-08-31 | 1998-03-09 | インターナショナル・ビジネス・マシーンズ・コーポレイション | 2次元オブジェクトの認識に用いるためのニューラル・ネットワーク及び光学式文字認識装置 |
US5742702A (en) * | 1992-10-01 | 1998-04-21 | Sony Corporation | Neural network for character recognition and verification |
US5319722A (en) * | 1992-10-01 | 1994-06-07 | Sony Electronics, Inc. | Neural network for character recognition of rotated characters |
EP0640934B1 (en) * | 1993-08-26 | 1998-05-13 | Canon Kabushiki Kaisha | OCR classification based on transition ground data |
US5912986A (en) * | 1994-06-21 | 1999-06-15 | Eastman Kodak Company | Evidential confidence measure and rejection technique for use in a neural network based optical character recognition system |
US5542006A (en) * | 1994-06-21 | 1996-07-30 | Eastman Kodak Company | Neural network based character position detector for use in optical character recognition |
US6028956A (en) * | 1997-04-04 | 2000-02-22 | Kofile Inc. | Object location and span determination method and apparatus which determines a location and span of an object in an image |
US6058351A (en) * | 1998-09-10 | 2000-05-02 | Case Corporation | Management zones for precision farming |
US7167587B2 (en) * | 2002-08-30 | 2007-01-23 | Lockheed Martin Corporation | Sequential classifier for use in pattern recognition system |
US8218904B2 (en) * | 2008-08-27 | 2012-07-10 | Lockheed Martin Corporation | Method and system for circular to horizontal transposition of an image |
CN105894012B (zh) * | 2016-03-29 | 2019-05-14 | 天津大学 | 基于级联微神经网络的物体识别方法 |
CN111646294B (zh) * | 2019-03-04 | 2022-05-27 | 铜陵松宝智能装备股份有限公司 | 一种络筒机用的多品种管纱控制方法 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS57147781A (en) * | 1981-03-06 | 1982-09-11 | Nec Corp | Pattern matching device |
US4400828A (en) * | 1981-03-27 | 1983-08-23 | Bell Telephone Laboratories, Incorporated | Word recognizer |
JPS6089291A (ja) * | 1983-10-19 | 1985-05-20 | Sharp Corp | 文字認識方式 |
US4760604A (en) * | 1985-02-15 | 1988-07-26 | Nestor, Inc. | Parallel, multi-unit, adaptive, nonlinear pattern class separator and identifier |
US4805225A (en) * | 1986-11-06 | 1989-02-14 | The Research Foundation Of The State University Of New York | Pattern recognition method and apparatus |
US4905162A (en) * | 1987-03-30 | 1990-02-27 | Digital Equipment Corporation | Evaluation system for determining analogy and symmetric comparison among objects in model-based computation systems |
US4876731A (en) * | 1988-02-19 | 1989-10-24 | Nynex Corporation | Neural network model in pattern recognition using probabilistic contextual information |
US4965725B1 (en) * | 1988-04-08 | 1996-05-07 | Neuromedical Systems Inc | Neural network based automated cytological specimen classification system and method |
-
1989
- 1989-03-13 JP JP1060328A patent/JPH0821065B2/ja not_active Expired - Fee Related
-
1990
- 1990-03-09 US US07/491,039 patent/US5119438A/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JPH02238588A (ja) | 1990-09-20 |
US5119438A (en) | 1992-06-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPH0821065B2 (ja) | 文字認識装置 | |
CN108460356B (zh) | 一种基于监控系统的人脸图像自动处理系统 | |
Chowdhury et al. | One-to-many face recognition with bilinear cnns | |
Bodesheim et al. | Local novelty detection in multi-class recognition problems | |
CN108304882A (zh) | 一种图像分类方法、装置及服务器、用户终端、存储介质 | |
Boughorbel et al. | Non-Mercer Kernels for SVM Object Recognition. | |
CN111291604A (zh) | 面部属性识别方法、装置、存储介质及处理器 | |
CN110414541B (zh) | 用于识别物体的方法、设备和计算机可读存储介质 | |
JP2005505062A (ja) | 学習されたモデルの部分を用いた顔認識のシステム及び方法 | |
CN111985554A (zh) | 一种模型训练方法、手镯识别方法及对应装置 | |
Larios et al. | Stacked spatial-pyramid kernel: An object-class recognition method to combine scores from random trees | |
Demir et al. | Clustering-based extraction of border training patterns for accurate SVM classification of hyperspectral images | |
Chouaib et al. | Feature selection combining genetic algorithm and adaboost classifiers | |
CN118072147B (zh) | 一种水稻病害检测方法、产品、介质及设备 | |
CN109101984B (zh) | 一种基于卷积神经网络的图像识别方法及装置 | |
Alamoudi et al. | Plant leaf recognition using texture features and semi-supervised spherical K-means clustering | |
CN115471856A (zh) | 一种发票图像信息识别方法、装置及存储介质 | |
CN110796134A (zh) | 一种强噪声复杂背景图像中的汉字组词方法 | |
Dewan et al. | Fish detection and classification | |
CN113947209A (zh) | 基于云边协同的集成学习方法、系统及存储介质 | |
CN118072101A (zh) | 基于均衡选择及对比学习的含噪声标签图像学习方法与系统 | |
Song et al. | Collaborative deep networks for pedestrian detection | |
Bhattacharya et al. | Recognition of handprinted Bangla numerals using neural network models | |
CN115438658A (zh) | 一种实体识别方法、识别模型的训练方法和相关装置 | |
CN115471876A (zh) | 一种指纹检索方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
LAPS | Cancellation because of no payment of annual fees |