[go: up one dir, main page]

JP3172278B2 - ニューラルネットワーク回路 - Google Patents

ニューラルネットワーク回路

Info

Publication number
JP3172278B2
JP3172278B2 JP24287892A JP24287892A JP3172278B2 JP 3172278 B2 JP3172278 B2 JP 3172278B2 JP 24287892 A JP24287892 A JP 24287892A JP 24287892 A JP24287892 A JP 24287892A JP 3172278 B2 JP3172278 B2 JP 3172278B2
Authority
JP
Japan
Prior art keywords
output
address
memory
weight
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP24287892A
Other languages
English (en)
Other versions
JPH0660051A (ja
Inventor
博幸 中平
征克 丸山
史朗 崎山
進 丸野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP24287892A priority Critical patent/JP3172278B2/ja
Priority to EP19920116019 priority patent/EP0533193A3/en
Publication of JPH0660051A publication Critical patent/JPH0660051A/ja
Priority to US08/409,949 priority patent/US5636327A/en
Application granted granted Critical
Publication of JP3172278B2 publication Critical patent/JP3172278B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Neurology (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、画像の認識処理等を行
うニューラルネットワーク回路の改良に関するものであ
る。
【0002】
【従来の技術】近年、情報処理のニューラルネットワー
クの分野に大きな関心が集まってきている。これ等のニ
ューラルネットワークは、人の生体の神経信号処理を模
倣して実現している。現在、様々なニューラルネットワ
ークが提案されているが、その中の一つである量子化ニ
ューロンのネットワークによる画像認識、例えば文献
「機能別階層ネットワークを用いた文字認識システム」
(平成2年度画像電子通信学会全国大会予稿77〜80
頁、または「Multi-Functional Layered Networ
k using Quantizer Neurons 」 Computer World '90,No
vember 1990 )について説明する。
【0003】図21に量子化ニューロンのネットワーク
を示す。このネットワークは、最下段から第一層、第二
層、及び第三層にて図中○印で示す量子化ニューロンを
多層ネットワーク状に連結すると共に、第四層を教師入
力層とし、第五層(最上段の最終層)に多入力1出力の
通常の人工神経細胞を連結した構成となっている。この
ネットワークの各層に与える特徴データとしては、その
一例として、画像を縦8個、横8個の64個に区分した
画素値、その8×8個の画素値間の横方向の差分値、お
よびその8×8個の画素値の縦方向の差分値としてい
る。同図に示すように、第一層は8×8画素数に相当す
る64個の量子化ニューロンからなり、これらの量子化
ニューロンは、図22に示すように各々量子化信号入力
端子Sを有し、この各量子化信号入力端子Sには、特徴
データとしての画素値が入力される。また、第二層の量
子化ニューロンの量子化信号入力端子Sには特徴データ
として画素値の横方向の差分値が入力され、第三層の量
子化ニューロンの量子化信号入力端子Sには特徴データ
として画素値の縦方向の差分値が入力される。第四層の
教師入力層は、教師入力によって最終層の各ニューロン
のシナプシスの結合係数を変化させるものである。最終
層は解答の出力層であって、例えば、解答が英数字62
文字に対するものである場合には、62個の通常の多入
力1出力の人工神経細胞からなる。
【0004】出力層のニューロンは、図25に示すよう
に、それぞれの入力データに対して、学習により決定さ
れている重みWn(nは入力の番号)を掛けた後、それ
らの総和を出力する。
【0005】第一層ないし第三層の量子化ニューロン
(量子化セル)は、図22に示すように、量子化信号入
力端子Sの他に、選択信号入力端子Rと、複数の出力と
を有している。選択信号入力端子Rより入力された信号
は、量子化信号入力端子Sからの入力値xによって、例
えば(数1)に従った重みτが掛けられて各出力に出力
される。
【0006】
【数1】τj=1−β(|j−x|) |j−x|:j
−xの絶対値 j:量子化ニューロンの出力番号 図22の量子化ニューロンは、量子化信号入力端子Sか
ら入力された特徴データの入力レベルが8種のレベルで
あり、出力数が8つのものである。例えば、1−βの関
数を図24で示すものとするならば、量子化信号入力端
子Sからの入力の値が0であったときには、量子化ニュ
ーロンの8つの出力に現れる値は、選択信号入力端子R
に与えられる値に、図23(a)で示される結合係数を
掛け合わせたものである。また、選択信号入力端子Rに
与えられる値に拘らず、量子化信号入力端子Sの入力値
が3であったときには、それぞれの結合係数は図23
(b)に示すように、上記図23(a)に示す結合係数
を3つ右へスライドしたものと同様となる。すなわち、
図23(a)の出力番号に3を加えることで、量子化信
号の入力値が3の場合の結合係数を得ることができる。
ただし、7を越えた場合はさらに−8にする必要があ
る。
【0007】第一層の量子化ニューロンの選択信号入力
端子Rに与えられる入力は、最大の値が与えられる。例
えば、量子化ニューロンでの演算を8ビットの演算で行
うとするならば、第一層について、図23(a)の結合
係数とし、量子化信号入力端子Sに与えられる値がレベ
ル0の場合は、 選択信号入力=FF 出力番号0=FF 出力番号1=7F 出
力番号2=0 出力番号3=0 出力番号4=0 出
力番号5=0 出力番号6=0 出力番号7=7F (16進
表現) となる。
【0008】図22に示したように、量子化信号入力端
子Sに与えられる入力のレベルが8レベル、出力数が8
つの量子化ニューロンでネットワークを構成する場合、
第一層の量子化ニューロンの8つの出力のそれぞれに、
第二層の量子化ニューロンの選択信号入力端子Rが接続
され、この第二層の量子化ニューロンの8つの出力のそ
れぞれに第三層の量子化ニューロンの選択信号入力端子
Rが接続される。すなわち、このネットワークでは、第
一層の量子化ニューロン1個から第二層の各量子化ニュ
ーロンを経由してツリー状に分岐する第三層の量子化ニ
ューロンの総出力数は512となる。
【0009】第一層の量子化ニューロンの8つの出力に
接続される第二層の8個の量子化ニューロンの量子化信
号入力、およびその第二層の量子化ニューロンの8つの
出力に接続される8個の第三層の量子化ニューロンの量
子化信号入力は、第一層の量子化ニューロンの量子化信
号入力端子Sに入力される特徴データとしての画素値と
同位置にある横方向差分値、および縦方向差分値がそれ
ぞれ与えられる。
【0010】また、第二層および第三層の量子化ニュー
ロンの選択信号入力端子に入力される信号は、それぞれ
第一層および第二層の各量子化ニューロンの出力であ
る。
【0011】したがって、第三層の量子化ニューロンの
出力は、第一層のニューロンの結合係数、第二層のニュ
ーロンの結合係数、及び第三層のニューロンの結合係数
の3つの結合係数と、第一層の量子化ニューロンの選択
信号入力値とを掛け合わせたものとなる。
【0012】最終層の多入力1出力ニューロン1個は、
第三層の量子化ニューロンの64×512の数の出力
と、その各々に与えられる第四層(教師入力層)の結合
係数とを掛け合わせたものを入力とする。
【0013】ニューラルネットワークの演算の多くは、
従来のフォン・ノイマン型の計算機で実現されており、
その場合の演算量、例えば図21のネットワークの演算
量は、1入力当り(数2)であるので、
【数2】乗算 :8×8×8=512 積和演算:8×8×8×62=31744 8×8の入力画像に対して(数3)となる。
【0014】
【数3】乗算 :512×64=32768 積和演算:31744×64=2031616
【0015】
【発明が解決しようとする課題】しかしながら、ハード
ウェアにより構成したニューロコンピュータの多くは、
フォン・ノイマン型のディジタル計算機を用いて全ての
ネットワークの計算を逐次直列的に行っているため、上
記のように演算量の多い場合には、処理速度は速いとは
決していえない。
【0016】そこで、処理の高速化を行う方策として、
例えば演算器を数多く持ち、その演算器を並列に動作さ
せて複数の演算を同時に行う方法が考えられるが、回路
規模が膨大になり、とても高価なものとなってしまう。
【0017】この発明の目的は、上記従来の欠点に鑑
み、ネットワークを小規模のハードウェアにより構成で
き、処理能力の点でも従来以上の高速の処理速度が得ら
れるニューラルネットワーク回路を提供することにあ
る。
【0018】
【課題を解決するための手段】前記目的を達成するため
に本発明の請求項1記載のニューラルネットワーク回路
は、与えられた特徴データをネットワークの演算の実行
によって認識処理する多層のニューラルネットワーク回
路であって、入力された特徴データに基いてネットワー
クの中で結合係数が有効なネットのアドレスのみを出力
するアドレス発生又は変換器と、該アドレス発生又は変
換器のアドレスに対応する各層間の結合係数を総合した
総合結合係数を出力する係数メモリと、前記アドレス発
生又は変換器のアドレスに対応する最終層のニューロン
の重みを出力する重みメモリと、前記係数メモリから出
力される総合結合係数及び重みメモリから出力される最
終層のニューロンの重みとを累積加算する累積演算器と
を有して、結合係数が有効なネットワークに対してのみ
演算を実行することを特徴とする。
【0019】本発明の請求項2記載のニューラルネット
ワーク回路は、与えられた特徴データをネットワークの
演算の実行によって認識処理する多層のニューラルネッ
トワーク回路であって、前記特徴データにより変化する
各層間のニューロンの結合係数、及び該各層間の結合係
数に関するデータを記憶し、入力される特徴データに対
応する結合係数に関するデータを読み出す各層のテーブ
ルメモリと、該テーブルメモリから読み出されたデータ
によりネットワークの中で結合係数が有効なネットのア
ドレスのみを出力し、該アドレスにより前記テーブルメ
モリから対応する結合係数を読み出すアドレス発生器
と、最終層以外の各層間のニューロンの結合係数を総合
した総合結合係数を記憶し、前記アドレス発生器のアド
レスにより前記テーブルメモリから読み出した各層の結
合係数をアドレスとして、該アドレスに対応する総合結
合係数を出力する係数メモリと、最終層のニューロンに
対する重みを記憶し、前記アドレス発生器のアドレス及
び前記テーブルメモリに入力される特徴データのアドレ
スとをアドレスとし、該両アドレスに対応する最終層の
ニューロンの重みを出力する重みメモリと、前記係数メ
モリの出力と重みメモリの出力とを累積加算する累積演
算器とを有して、結合係数が有効なネットワークに対し
てのみ演算を実行することを特徴とする。
【0020】本発明の請求項3記載のニューラルネット
ワーク回路は、与えられた特徴データをネットワークの
演算の実行によって認識処理する多層のニューラルネッ
トワーク回路であって、計算すべきネットワークの回数
を出力する制御回路と、該制御回路の出力により計算す
べきネットワークの回数を順次カウントするアドレス発
生器と、特徴データを記憶し、前記アドレス発生器のカ
ウントに従って順次特徴データを読み出す特徴データメ
モリと、最終層のニューロンの重みを記憶する重みメモ
リと、最終層以外の各層のニューロンの結合係数を記憶
する各層の係数メモリと、前記アドレス発生器の出力、
前記特徴データメモリの出力、及び前記制御回路の出力
に基いてネットワークの中で結合係数が有効なネットの
アドレスのみを演算し、該アドレスを前記係数メモリに
与えると共に、前記重みメモリに与えるアドレスを演算
して出力するアドレス変換器と、該アドレス変換器から
出力されるアドレスに対応して前記各層の係数メモリか
ら読み出された各層の結合係数をアドレスとし、該アド
レスに対応する各層の結合係数を掛け合せた総合結合係
数を出力するテーブルメモリと、該テーブルメモリの出
力と前記重みメモリの出力を累積加算する累積演算器
と、前記アドレス発生器から出力されたアドレスに前記
累積演算器の結果を保持する出力メモリとを有し、結合
係数が有効なネットワークに対してのみ演算を実行する
ことを特徴とする。
【0021】本発明の請求項4記載のニューラルネット
ワーク回路は、前記請求項3記載のニューラルネットワ
ーク回路において、重みメモリから出力される最終層の
ニューロンの重みを入力し、該重みに、予め定めた設定
更新値を与える重み更新器を有し、最終層のニューロン
の重みを更新することにより特徴データの認識処理を学
習することを特徴とする。
【0022】本発明の請求項5記載のニューラルネット
ワーク回路は、前記請求項3記載のニューラルネットワ
ーク回路において、テーブルメモリから出力される総合
結合係数を入力とし、該総合結合係数に応じた更新値を
出力するシフタと、該シフタから出力される更新値及び
重みメモリから出力される最終層のニューロンの重みと
を入力し、該重みに更新値を加算して、該重みを更新す
る重み更新器とを有し、最終層のニューロンの重みの更
新をニューロンの発火量に応じた値を用いて行って、特
徴データの認識処理を学習することを特徴とする。
【0023】本発明の請求項6記載のニューラルネット
ワーク回路は、前記請求項3記載のニューラルネットワ
ーク回路において、重みメモリから出力される最終層の
ニューロンの重みの値に対して該重みを更新した新たな
重みの値を仮り決定し、該更新した新たな最終層のニュ
ーロンの重みの値がオーバーフローする場合には、前記
重みメモリに記憶されている全ての重みの値を同率の割
合で減じる重み更新器を有し、最終層の重みの値がオー
バーフローしないように最終層のニューロンの重みを更
新して学習することを特徴とする。
【0024】本発明の請求項7記載のニューラルネット
ワーク回路は、前記請求項3記載のニューラルネットワ
ーク回路において、特徴データをアドレスとし、該特徴
データを非線形変換して特徴データメモリに記憶させる
ルックアップテーブルを有し、特徴データメモリに入力
する特徴データを予め非線形変換することを特徴として
いる。
【0025】また、本出願の請求項8記載の発明のニュ
ーラルネットワーク回路は、前記請求項3記載のニュー
ラルネットワーク回路において、アドレス変換器は制御
信号を出力し、該制御信号の内容を、有効な結合係数の
アドレスが最も大きい結合係数を持つアドレスに対して
連続しないときと連続するときとで変更するものであ
り、該アドレス変換器の制御信号を受け、有効な結合係
数のアドレスが最も大きい結合係数を持つアドレスに対
して連続しないとき“0”を出力し、有効な結合係数の
アドレスが最も大きい結合係数を持つアドレスに対して
連続するとき係数メモリからの結合係数を出力するよう
選択するマルチプレクサを有し、テーブルメモリは前記
マルチプレクサの出力を入力とするものであることを特
徴とするものである。
【0026】また、本出願の請求項9記載の発明のニュ
ーラルネットワーク回路は、前記請求項3記載のニュー
ラルネットワーク回路において、複数の特徴データを量
子化する量子化変換回路を有し、該量子化変換回路は、
特徴データ毎に量子化変換の閾値を複数保持する量子化
変換閾値メモリと、与えられた特徴データを前記量子化
変換閾値メモリから読み出された閾値と比較する比較器
と、該比較器の出力に基いて次に比較すべき量子化変換
閾値メモリの閾値のアドレスを計算する加算器と、該加
算器の出力を保持して前記量子化変換閾値メモリにアド
レスを与えるレジスタと、該レジスタの入力と出力とを
入力とし、前記比較器の比較結果に基いてレジスタの入
力と出力との何れか一方を出力とし、該出力を量子化変
換結果とする2入力マルチプレクサとで構成されてい
て、特徴データメモリは、前記量子化変換器により量子
化された特徴データを記憶し、与えられた特徴データの
それぞれを異なる閾値を用いて量子化変換することを特
徴とする。
【0027】更に、本出願の請求項10記載の発明のニ
ューラルネットワーク回路は、前記請求項3記載の発明
のニューラルネットワーク回路において、更に、初期学
習用として複数の特徴データが予め記憶された初期学習
用特徴データメモリと、教師データが入力され、上記初
期学習用特徴データメモリから読み出された特徴データ
の認識結果を教師データと比較する比較器と、重みメモ
リから出力される最終層のニューロンの重みを入力し、
該重みを前記比較器の比較結果に基いて更新する重み更
新器とを設けて、最終層のニューロンの重みを更新する
ことによる特徴データの認識処理の学習を、予め、初期
学習用特徴データメモリに記憶された複数の特徴データ
を参照して行うことを特徴とする。
【0028】
【作用】前記の構成により、請求項1記載の発明では、
ニューラルネットワーク回路に特徴データが入力される
と、アドレス発生又は変換器がその特徴データに対して
ネットワークの中で結合係数が有効なネットのアドレス
のみを出力するので、そのアドレスに対応する総合結合
係数及び最終層のニューロンの重みが各々係数メモリ及
び重みメモリから算出され、この総合結合係数及び重み
が累積演算器により累積加算される。従って、ネットワ
ークの演算を行う際に結合係数が0でないネットのみ、
即ち、演算が有効であるネットのみを検出し演算するの
で、画像認識等の高速化が図られる。
【0029】また、請求項2記載の発明では、ニューラ
ルネットワーク回路に特徴データが入力されると、この
入力された特徴データに対応する結合係数に関するデー
タがテーブルメモリから読み出される。アドレス発生器
は、前記テーブルメモリから読み出されたデータに基い
て、ネットワークの中で結合係数が有効なネットのアド
レスのみを出力し、テーブルメモリは該アドレスに対応
した有効な結合係数のみを出力する。更に、係数メモリ
は、上記テーブルメモリからの有効な結合係数をアドレ
スとしてこれ等各結合係数を総合した総合結合係数を出
力し、重みメモリは、前記アドレス発生器から出力され
たアドレスに対応する最終層のニューロンの重みを算出
する。そして、累積演算器は、上記出力された総合結合
係数と最終層のニューロンの重みとを累積加算する。従
って、請求項1記載の発明と同様に、演算が有効である
ネットワークのみを検出し演算するので、画像認識等の
高速化が図られる。しかも、各層毎に量子化ニューロン
の結合係数を記憶する係数メモリを設ければよいので、
ハードウェアの小規模化が可能になり、処理能力に優れ
たニューラルネットワークが構成される。
【0030】更に、請求項3記載の発明では、特徴デー
タメモリの出力、制御回路の出力(計算すべきネットワ
ークの回数)、及びアドレス発生器の出力(計算してい
るネットワークの回数番号)に基いて、アドレス変換器
が、ネットワークの中で結合係数が有効なネットのアド
レスのみを演算し、出力するので、係数メモリ及び重み
メモリがそれぞれ前記出力されたアドレスに対応する各
層の結合係数及び最終層のニューロンの重みを出力す
る。また、テーブルメモリは、上記各層の係数メモリか
らの結合係数を掛け合せた総合結合係数を出力する。そ
して、累積演算器が上記出力された総合結合係数と最終
層のニューロンの重みとを累積加算し、その加算結果が
出力メモリに保持される。従って、請求項1記載の発明
と同様に、演算が有効であるネットワークのみを検出し
演算するので、画像認識の高速化が図られる。しかも、
各層毎に量子化ニューロンの結合係数を記憶する係数メ
モリを設ければよいので、ハードウェアの小規模化が可
能になり、処理能力に優れたニューラルネットワークが
構成される。
【0031】更に、請求項4記載の発明では、入力され
た特徴データに対応してネットワークの中で結合係数が
有効なネットのアドレスに対応する最終層のニューロン
の重みが重みメモリから読み出されると、この読み出さ
れた重みが重み更新器により設定更新値だけ加算され
て、より重く更新される。従って、次第に特徴データの
認識率が向上する。
【0032】加えて、請求項5記載の発明では、入力さ
れた特徴データに対応してネットワークの中で結合係数
が有効なネットのアドレスが出力され、このアドレスに
対応して各層間の結合係数を総合した総合結合係数がテ
ーブルメモリから出力されると共に、前記出力されたア
ドレスに対応して最終層のニューロンの重みが重みメモ
リから読み出されると、前記出力された総合結合係数に
応じた更新値、つまりニューロンの発火量に応じた更新
値がシフタから出力され、この更新値が重み更新器によ
り、重みメモリの前記読み出された最終層のニューロン
の重りに加算されて、該重みが更新される。従って、最
終層のニューロンの重りの更新がニューロンの発火量に
応じて行われるので、特徴データの認識率を短期間で向
上させることができる。
【0033】また、請求項6記載の発明では、重みメモ
リに記憶された最終層のニューロンの重りがその更新に
よってオーバーフローする場合には、該重みメモリに記
憶された全ての重みの値が同率の割合で減じられので、
重みのオーバーフローを生じることなくその全ての重み
を適切に更新できて、小回路規模のハードウェアで効率
良く特徴データの認識率を向上できる。
【0034】更に、請求項7記載の発明では、特徴デー
タを特徴データメモリに記憶するに先立って、該特徴デ
ータがルックアップテーブルにより非線形変換され、そ
の後に、この非線形変換された特徴データが特徴データ
メモリに記憶される。従って、画像間に濃淡が付けられ
たと等しくなるので、元の特徴データに画像間の差が出
にくい場合であっても、認識率の向上が図られる。
【0035】加えて、請求項8記載の発明では、有効な
結合係数の出力時に、そのアドレスが、最も高い結合係
数のアドレスに対して連続しないときには、マルチプレ
クサが前記有効な結合係数に代えて、“0”の結合係数
を出力するので、最も高い結合係数のアドレスに対して
連続しないアドレスにおける結合係数では、その結合係
数を用いた演算は行われない。従って、例えば画素の右
端が、その画素の右隣りに位置する画素の右端と連続す
るような演算が防止されて、特徴データの認識率の向上
が図られる。
【0036】さらにまた、請求項9記載の発明では、特
徴データが与えられると、量子化変換閾値メモリ内の該
特徴データに対応する複数の閾値のうち1つが特徴デー
タと比較される。また、次に比較すべき量子化変換閾値
メモリ内の他の閾値が加算器及びレジスタにより特定さ
れ、この閾値と上記与えられた特徴データとが比較器に
て比較される。そして、比較器の比較結果に基いて2入
力マルチプレクサが、比較に用いた閾値のうち特徴デー
タの値に近接する閾値のアドレスを選択し、該アドレス
が特徴データの量子化変換結果となる。従って、与えら
れた特徴データ別に異なる複数の閾値を用いて特徴デー
タを量子化変換することができるので、量子化ニューロ
ン毎に量子化変換メモリを持つことが不要になり、小さ
い回路規模のハードウェアでニューラルネットワーク回
路を構成できる。
【0037】更に、請求項10記載の発明では、初期学
習時には、初期学習用特徴データメモリに記憶された複
数個の初期学習用特徴データが参照され、この特徴デー
タに対して認識及びその認識処理の学習が行われる。従
って、初期学習が完了するまでに同一の初期学習用特徴
データを複数回参照するに際して、その同一の特徴デー
タをその参照毎に外部からメモリに読込むことを繰返す
必要がなくなるので、特徴データに対する初期学習が高
速に行われることになる。
【0038】
【実施例】
(実施例1)本発明の第1の実施例を図1に示す。図1
において、10−j,10−k,10−hは、それぞれ
ネットワークの前記図21の第一層、第二層、第三層の
各量子化ニューロンの量子化信号入力端子Sに入力する
量子化信号としての特徴データである。11はアドレス
発生器であって、量子化ニューロン同志の結合係数の有
効部,即ち値が0でない部分のみをアクセスするアドレ
スを出力するものである。12、13、14は量子化ニ
ューロンの結合係数に対応する出力レベルを格納するフ
ァンクションテーブルであって、それぞれネットワーク
の第一層、第二層、第三層に対応しており、特徴データ
10−J、10−k、10−hとアドレス発生器11の
出力とをアドレスとしている。15は係数メモリであっ
て、ファンクションテーブル12、13、14の出力デ
ータをアドレスとし、量子化ニューロンによるニューラ
ルネットワークの第三層の出力値を内蔵データとしてい
る。即ち、係数メモリ15では、前記図21から判るよ
うに、第二層の量子化ニューロンの選択入力信号が第一
層の量子化ニューロンの出力であり、第三層の量子化ニ
ューロンの選択入力信号が第二層の量子化ニューロンの
出力である点から、第三層の量子化ニューロンの出力
は、第一層のニューロンの結合係数と、第二層のニュー
ロンの結合係数と、第三層のニューロンの結合係数と、
第一層のニューロンの選択入力信号値とを掛け合わせた
ものであることに着目し、これ等を掛け合せた結果を係
数メモリ15に記憶しておくことにより、最終層以外で
の乗算を不要としている。
【0039】次に、ネットワークのうち結合係数の値が
0である部分をスキップする方法を説明する。この方法
を採るのは、図2に示した関数を見て判るように、量子
化ニューロンの結合係数は一部にのみ値があり、その他
は0となっており、係数が0の場合には乗算の結果は常
に0であって演算する必要がないので、処理時間が大幅
に短縮できるからである。
【0040】先ず、初期設定として、ファンクションテ
ーブル12、13、14に対して、各層に対応する結合
係数のレベルを書き込む。これは結合係数の値自体を書
き込むのではなく、出力を8レベルとした場合の相対的
な値を書き込む。この様子を図2で説明する。図2にお
いて、21は結合係数の関数の1つ、22は関数21を
数値データとしたもの、23はネットワークの結合係数
21を有した層に数値データ22が書き込まれるファン
クションテーブルである。それぞれの関数は前記(数
1)であり、βはすべて同じである。例えば、カラムア
ドレス3の結合係数はカラムアドレス1のそれを2つ右
へシフトしたものである。また、S、Nはこの結合係数
ごとに付与したタグであって、Sは結合係数が0でない
値をとる最初のアドレス、Nは0でない値の個数であ
る。すなわち、結合係数21の場合は、S=4、N=3
となる。
【0041】いま、ファンクションテーブル12、1
3、14のタグをそれぞれSj、Sk、Sh、Nj、N
k、Nhとすると共に、アドレス発生器11からファン
クションテーブル12、13、14に出力するアドレス
信号をそれぞれAj、Ak、Ahと置いて、アドレス発
生器11のタイミングチャートを示すと、図3のように
なる。
【0042】先ず、第1サイクルで、特徴データ10−
J、10−k、10−hがそれぞれファンクションテー
ブル12、13、14に入力されてカラムアドレスが各
々決定すると、各ファンクションテーブル12、13、
14からアドレス発生器11に各タグSj、Sk、S
h、Nj、Nk、Nhがアドレス発生器11に出力され
る。該アドレス発生器11は、アドレスAj、Ak、A
hの初期値として、結合係数が0でない値をとる最初の
アドレスSj、Sk、ShをAj=Sj、Ak=Sk、
Ah=Shと設定する。
【0043】次の第2のサイクルでは、Sjに1だけ加
算し、Aj=Sj+1としてこれを出力する。このこと
を0でない値の個数,つまりNj回だけ加算して出力す
る。第Nj+1サイクルから第Nj×Nkサイクルまで
は、第1サイクルから第Njサイクルと同じ操作をNk
回だけ繰り返す。第Nj×Nk+1サイクルはAj=S
j、Ak=Skとし、AhをShに1だけ加算して出力
する。第Nj×Nk+1サイクルから第Nj×Nk×N
hまでは第1サイクルから第Nj×Nkサイクルと同じ
操作をNh回だけ繰り返す。以上の動作により、アドレ
ス発生器11は3層からなるネットワークにおいてその
結合係数が0でない値をもつネットのみをアクセスする
ことが可能となる。
【0044】前記アドレス発生器11のアドレス信号A
j、Ak、Ahは、それぞれファンクションテーブル1
2、13、14に出力され、該各アドレス信号Aj、A
k、Ahによってそのアドレスにあるファンクションテ
ーブルのデータDj、Dk、Dhが読み出されると、そ
のデータDjを上位ビット、データDkを中位ビット、
データDhを下位ビットとして、これ等データ自体が係
数メモリ15のアドレスとなる。
【0045】前記係数メモリ15は、3層のネットワー
クの第三層からの出力値を保持しており、量子化ニュー
ロンの出力の数が8つとすると、第三層からの出力値は
8×8×8=512通りのみであり、これ以外の値はと
らない。前記(数1)を見て判るように、結合係数τは
最大値1、最小値0であるから、これを8レベルとした
場合には、いかなるβの値を持とうとも結合係数τの取
り得る値は、この512種類に限定される。すなわち、
この係数メモリ15はROMでも記憶することが可能で
あり、勿論RAMでもよい。
【0046】更に、図1において、16は重みメモリで
あって、ネットワークの第三層の出力と最終層のニュー
ロンの入力との結合の重み付けの値を格納するものであ
る。18は入力ブロックアドレスであって、対象となる
データをN×Nに分割したときの各ブロックのアドレス
を示すものである。前記重みメモリ16は、アドレス発
生器11のアドレス信号と入力ブロックアドレス18の
アドレス信号とを入力し、その両アドレスを合成したア
ドレスによりアクセスされ、そのアドレスでのニューロ
ンの信号に対応する重みの値をデータとする。この重み
メモリ16をRAMで構成することにより、学習が可能
なニューラルネットワークとなる。
【0047】加えて、17は積和演算器であって、係数
メモリ15の出力、すなわちネットワークからの結合係
数τijkhを乗数とし、被乗数を重みメモリ16の出
力として、1つの最終層のニューロンについて、その1
つの最終層のニューロンに接続されている入力の数だけ
乗算を繰返し実行して、その結果を逐次累算するもので
ある。
【0048】したがって、従来のフォン・イノマン型の
逐次計算機では、入力ブロック数(画素数)が64個の
場合、最大64×8×8×8=32768回の積和演算
を実行し、その結果を用いて最終層の出力ニューロンの
出力値を決定しなければならないのに対し、本発明によ
れば、量子化ニューロンの結合係数の有効部が、例えば
各層それぞれ3個、4個、3個の場合、演算回数は64
×3×4×3となるから、通常の演算と比較して36/
512の演算量となる。つまり、それだけ処理速度が向
上する効果が得られる。
【0049】(実施例2)本発明の第2の実施例を図4
に示す。図4の第2の実施例は、認識すべき画像の特徴
データを特徴データメモリ107、108、109に与
え、その特徴データから所定画像を認識するニューラル
ネットワーク回路、即ち特徴データについてネットワー
クの演算を行うものである。
【0050】3個の特徴データメモリ107、108、
109は、それぞれ第一層、第二層、第三層の量子化ニ
ューロンの量子化信号入力Sに与えられるべき認識すべ
き画像の特徴データを書き込み、保持している。また、
3個の係数メモリ101、102、103は、それぞれ
第一層、第二層、第三層の量子化ニューロンの結合係数
を保持している。テーブルメモリ112は、請求項1記
載の発明の係数メモリとして機能し、前記係数メモリ1
01〜103の各出力J,K,Hを入力とし、それらを
掛け合わせた値を出力するものである。重みメモリ11
8は量子化ニューロンのネットワークの最終層のニュー
ロンの重みを保持する。累積演算器113は、テーブル
メモリ112の出力と重みメモリ118の出力とを入力
とし、その両出力の累積加算を行うものである。制御回
路117は、第一層〜第三層の各結合係数の0以外のデ
ータの数Wj、Wk、Whの各信号をアドレス発生器1
19及びアドレス変換器104〜106に与えるもので
ある。アドレス変換器104〜106は、アドレス発生
器110と特徴データメモリ107〜109のデータと
を受け取り、それぞれ係数メモリ101〜103のアド
レスへの変換と重みメモリ118へのアドレスへの変換
を行う。
【0051】前記アドレス発生器119は、図5に示す
ように、5つのカウンタ、即ち第一層カウンタ120、
第二層カウンタ121、第三層カウンタ122、特徴デ
ータカウンタ123、および出力層カウンタ124で構
成されている。第一層カウンタ120は、第一層の結合
係数の0以外のデータの数Wjをカウントの幅として入
力し、キャリ入力が1のときに、0から(幅入力の値W
j−1)までカウントアップするものであって、その出
力xは、図6に示すように、例えば幅入力Wjの値が3
であれば、0、1、2とカウントした後、0に戻り、再
び1、2と変化するものである。また、第二層カウンタ
121は、第二層の結合係数の0以外のデータの数Wk
をカウントの幅として入力し、前記第一層カウンタ12
0の出力xがリセットされる毎に+1を加算して、その
出力yが、図6に示すように、0から(幅入力の値Wk
−1)まで順次変化するものである。更に、第三層カウ
ンタ122は、第三層の結合係数の0以外のデータの数
Whをカウントの幅として入力し、前記第二層カウンタ
121の出力yがリセットされる毎に+1を加算して、
その出力zが、0から(幅入力の値Wh−1)まで順次
変化するものである。加えて、特徴データカウンタ12
3は、特徴データの数(図6では64個)だけカウント
するカウンタであって、前記第三層カウンタ122の出
力zがリセットされる毎に+1を加算して、その出力i
が、0から(特徴データの個数−1)まで順次変化する
ものであり、その出力iにより特徴データメモリ10
7、108、109から各層に与えられる特徴データ
j、k、hを読み出させるものである。出力層カウンタ
124は、最終層のニューロンの数(例えば62個)だ
けカウントするカウンタであって、前記特徴データカウ
ンタ123の出力iがリセットされる毎に+1を加算し
て、その出力pが、図6に示すように、0から(出力ニ
ューロンの数−1)まで順次変化するものである。
【0052】次に、アドレス変換器104〜106の構
成を説明する。アドレス変換器104は、特徴データメ
モリ107からの第一層の特徴データj、アドレス発生
器119の第一層カウンター120の出力x、および第
一層の結合係数の0以外のデータの個数Wjを入力と
し、これ等を変換式(数4)を用いて、第一層の量子化
ニューロンの結合係数を保持している係数メモリ104
のアドレスjjjに変換すると共に、変換式(数5)を
用いて最終層のニューロンの結合係数を記憶している重
みメモリ118のアドレスjjの一部に変換する。
【0053】
【数4】jjj=−Wj/2+x
【数5】jj=j−Wj/2+x ここで、量子化ニューロンの出力数を8、量子化信号入
力端子Sの入力レベルを0〜7とした場合、その量子化
ニューロンの出力の変数の範囲は0〜7である。jj
j、jjの結果の下位より3ビットを出力とする。従っ
て、第一層の結合係数が例えば図24に示すものである
場合には、Wj=3であるので、アドレス変換器104
のアドレスjjjの出力は、図6に示すように順次、j
jj=−1、0、1とカウントして、図24で結合係数
が0でない値を取る最初のアドレスから逐次1づつシフ
トし、第一層カウンタ120の出力xと同期する。ま
た、重みメモリ118のアドレスjjの出力は、例えば
特徴データj=3であれば、図6に示すように、絶対的
なアドレス2からスタートして、順次、3、4とカウン
トした後、リセットし、第一層カウンタ120の出力x
と同期する。
【0054】同様に、アドレス変換器105は、特徴デ
ータメモリ108からの第二層の特徴データk、アドレ
ス発生器119の第二層カウンター121の出力y、お
よび第二層の結合係数の0以外のデータの個数Wkを入
力とし、これ等を、第二層の量子化ニューロンの結合係
数を保持している係数メモリ102のアドレスkkk
と、最終層のニューロンの係数を記憶している重みメモ
リ118のアドレスの一部kkとに変換し、出力する。
例えば、アドレスkkkは、図6に示すように第二層カ
ウンター121の出力yと同期して、順次、−1、0、
1とカウントし、アドレスkkは、アドレス変換器10
4から出力されるアドレスjjがリセットされる毎に+
1を加算し、特徴データメモリ108からの特徴データ
kが例えばk=6のときでは、順次、5、6、7と変化
してリセットされ、第二層カウンター121の出力yと
同期する。
【0055】また、アドレス変換器106は、特徴デー
タメモリ109からの第三層の特徴データh、アドレス
発生器119の第三層カウンター122の出力z、およ
び第三層の結合係数の0以外のデータの個数Whを入力
とし、これ等を、第三層の量子化ニューロンの結合係数
を保持している係数メモリ103のアドレスhhhと、
最終層のニューロンの係数を記憶している重みメモリ1
18のアドレスの一部hhとに変換し、出力する。例え
ば、アドレスhhhは、図6に示すように第三層カウン
ター121の出力zと同期して、順次、−1、0、1と
カウントしてリセットされ、アドレスhhは、アドレス
変換器105から出力されるアドレスkkがリセットさ
れる毎に+1を加算し、特徴データメモリ109からの
特徴データhが例えばh=4のときでは、順次、3、
4、5と変化してリセットされ、第三層カウンター12
2の出力zと同期する。
【0056】したがって、3個の係数メモリ101〜1
03は、それぞれ第一層〜第三層の量子化ニューロンの
結合係数のうち、アドレス変換器104〜106から入
力されたアドレスに対応して値が0でない結合係数を出
力すると共に、テーブルメモリ112は、前記各係数メ
モリ101〜103から出力される結合係数を入力とし
てこれ等3つの結合係数を掛け合わせて、第三層の量子
化ニューロンの出力を得る。一方、量子化ニューロンの
ネットワークの最終層のニューロンの重みを保持する重
みメモリ118は、アドレス変換器104、105、1
06からのアドレス信号の入力と、アドレス発生器11
9の特徴データカウンター123の出力iと、出力層カ
ウンター124の出力pを入力することによって、テー
ブルメモリ112の出力データ(即ち、第三層の量子化
ニューロンの出力)に対応する出力ニューロンの重みデ
ータを出力する。累積演算器113は、テーブルメモリ
112の出力と重みメモリ118の出力を掛け合わせ、
累積する。以上の動作をアドレス発生器119のカウン
トアップに従って実行する。アドレス発生器119の出
力層カウンタ124が変化するときに、出力メモリ11
4のそのアドレスに累積演算器113の値を書き込ん
で、累積演算器113の値を0にする。
【0057】アドレス発生器119のカウントアップが
終了すれば、画像認識の演算が終了し、出力メモリ11
4には量子化ニューロンのネットワークの解答出力が得
られる。
【0058】ここに、量子化ニューロンの結合係数の有
効部のみについて演算しているので、値が0を含む全て
の結合係数について演算する場合に比較して、処理速度
が向上する効果が得られる。
【0059】(実施例3)本発明の第3の実施例を図7
に示す。本発明の図7の実施例は、特徴データメモリ1
07〜109に与えた特徴データを逐次学習しながら認
識する回路、即ち特徴データによって最終層の重みの値
を更新すると共にネットワークの演算を行う回路であ
る。すなわち、量子化ニューロンよりなるネットワーク
の学習は、教師入力,即ち学習する特定の出力層のニュ
ーロンの入力において、それらの入力データの値が0以
外となる入力の重みをより重く変更すること、換言すれ
ば、第四層の値(第三層の出力)が0以外の場合に、学
習する出力層のニューロンのシナプシスの重みを重く変
更するによって行う。例えば、重みの変更は、元の重み
に+1を加算することによって行い、これにより、入力
された特徴データの学習を実行する。ここに、図4と共
通の構成要素は同一の番号としている。
【0060】図7では、特に重み更新器116を追加し
ている。該重み更新器116は、重みメモリ111から
出力される重みデータを入力とし、その重みデータに+
1を加算して更新し、その更新された重みデータを重み
メモリ111に出力する。また、制御回路115は、重
みメモリ111に対し前記重み更新器116から出力さ
れる更新データの書き込みを指令する書き込み制御信号
WEを出力すると共に、アドレス発生器110に対し
て、重みデータの学習制御を指令する学習制御信号T
と、学習させる最終層のニューロンの番号Tpの信号を
出力する。
【0061】図8に示すアドレス発生器110は、5つ
のカウンタ120〜124に加えて、1つの選択回路1
25を備える。該選択回路125は、制御回路115か
らの学習制御信号Tを受けている学習時には、制御回路
115から出力された学習すべき最終層のニューロンの
番号Tpを選択し、学習制御信号Tを受けていない特徴
データの認識時には、出力層カウンタ124の出力を選
択するものである。
【0062】その他の構成は前記第2の実施例と同様で
ある。すなわち、特徴データメモリ107〜109は、
それぞれ第一層〜第三層の量子化ニューロンの量子化信
号入力端子Sに与えるデータを保持し、係数メモリ10
1〜103は、それぞれ第一層〜第三層の量子化ニュー
ロンの結合係数を保持し、テーブルメモリ112は係数
メモリ101〜103からの出力を入力とし、それらの
結合係数を掛け合わせた値を出力する。重みメモリ11
1は量子化ニューロンのネットワークの最終層のニュー
ロンの重みを保持する。累積演算器113は、テーブル
メモリ112の出力である総合結合係数と重みメモリ1
11の出力である重りとを入力とし、その両者の乗算結
果の累積加算を行う。また、制御回路115は、第一層
〜第三層の各結合係数の0以外のデータの個数Wj、W
k、Whをアドレス発生器110とアドレス変換器10
4〜106に与える。アドレス変換器104〜106
は、アドレス発生器110と対応する特徴データメモリ
107〜109のデータを受け取り、それぞれ係数メモ
リ101〜103へのアドレスの変換と重みメモリ11
1へのアドレスの変換を行う。
【0063】また、図8に示すアドレス発生器110に
おいて、第一層カウンタ120、第二層カウンタ12
1、及び第三層カウンタ122は、キャリ入力が値1の
とき、0から(幅入力の値−1)までカウントアップ
し、特徴データカウンタ123は、特徴データ数だけカ
ウントし、出力層カウンタ124は出力ニューロン数だ
けカウントする。
【0064】次に、本発明の第3の実施例の動作につい
て説明する。
【0065】先ず、特徴データの認識の場合について説
明する。この場合は、第2の実施例と同様の動作を行う
ことになる。各層の特徴データメモリ107、108、
109には、認識すべき画像の特徴データが書き込まれ
ている。
【0066】アドレス発生器110の特徴データカウン
タ123の出力jによって特徴データメモリ107、1
08、109から各層の特徴データj、k、hが読み出
される。
【0067】アドレス変換器104は、第一層の特徴デ
ータj、アドレス発生器110の第一層カウンタ120
の出力x、第一層の結合係数の0以外のデータの個数W
jを入力としている。アドレス変換器104は、第一層
の量子化ニューロンの結合係数を保持している係数メモ
リ101のアドレスと、最終層のニューロンの重みを記
憶している重みメモリ111のアドレスの一部を算出変
換する。
【0068】係数メモリ101のアドレスへの出力jj
jは(数4)で与えられ、重みメモリ111のアドレス
への出力jjは(数5)で与えられる。ここで、量子化
ニューロンの出力数を8、量子化信号入力のレベルを0
〜7とした場合、その出力の変数の範囲は0〜7であ
る。jjj、jjの結果の下位より3ビットを出力とす
る。
【0069】同様に、アドレス変換器105は、第二層
の量子化ニューロンの結合係数を保持している係数メモ
リ102のアドレスと、最終層のニューロンの重みを記
憶している重みメモリ111のアドレスの一部とを算出
して出力し、アドレス変換器106は、第三層の係数メ
モリ103のアドレスと、最終層のニューロンの重みを
記憶している重みメモリ111のアドレスの一部とを算
出し、出力する。
【0070】量子化ニューロンのネットワークの最終層
のニューロンの重みを保持する重みメモリ111は、ア
ドレス変換器104、105、106からの入力jj、
kk、hhと、アドレス発生器110の特徴データカウ
ンタ123の出力iと、アドレス発生器110の選択回
路125により選択された出力層カウンター124の出
力の値pからの入力によって、テーブルメモリ112の
出力データ(すなわち、第三層の量子化ニューロンの出
力)に一致する最終層のニューロンの重みデータを出力
する。
【0071】累積演算器113はテーブルメモリ112
の出力と重みメモリ111の出力を掛け合わせ累積す
る。
【0072】以上の動作を、アドレス発生器110のカ
ウントアップに従って実行する。アドレス発生器110
の出力層カウンタ124の出力が変化するときに、その
アドレスに累積演算器113の値を出力メモリ114に
書き込み、累積演算器113の値を0に戻す。
【0073】アドレス発生器110のカウントアップが
終了すれば、認識の演算が終了し、出力メモリ114に
は量子化ニューロンのネットワークの解答出力が得られ
る。このように、第2の実施例と同様の動作を行う。
【0074】次に、重みメモリ111に記憶している重
みデータの学習を説明する。
【0075】先ず、アドレス発生器110の特徴データ
カウンタ123の出力iによって特徴データメモリ10
7、108、109から、各層に与えられる特徴データ
j、k、hが読み出される。アドレス変換器104は、
第一層の特徴データJ、アドレス発生器110の第一層
カウンター120の出力x、第一層の結合係数の0以外
のデータの個数Wjを入力として、最終層のニューロン
の重みを記憶している重みメモリ111のアドレスの一
部を算出する。この算出式は、認識時と同一であり、重
みメモリ111のアドレスへの出力jjは前記第1の実
施例での(数4)である。同様に、他の2個のアドレス
変換器105,106も、最終層のニューロンの重みを
記憶している重みメモリ111のアドレスの一部kk、
hhを算出し、その各アドレスkk、hhを出力する。
【0076】学習モードであるので、制御回路115か
らは学習制御信号T、及び学習させる最終層のニューロ
ンの番号Tpの信号が出力され、アドレス発生器110
の選択回路125は、制御回路115からの学習するニ
ューロンの番号Tpを選択する。
【0077】量子化ニューロンのネットワークの最終層
のニューロンの重みを保持する重みメモリ111は、ア
ドレス変換器104、105、106からのアドレス入
力jj、kk、hhと、アドレス発生器110の特徴デ
ータカウンタ123の出力iと、アドレス発生器110
の選択回路125で選択された制御回路115からの学
習ニューロンの番号Tpである出力値pからの入力によ
って、これ等に対応するアドレスに記憶された重みデー
タであって第三層の量子化ニューロンの出力が0以外の
値を持つデータを重み更新器116に出力する。
【0078】重み更新器116は、重みメモリ111か
ら入力された重みデータに+1を加え、その値を更新デ
ータとして重みメモリ111の入力に出力する。重みメ
モリ111は、制御回路115からの書き込み信号WE
によって、重み更新器116に重みデータを読み出して
いるアドレスと同じアドレスに、前記重み更新器116
から入力された更新データを書き込んで、重みデータを
更新する。以上の動作をアドレス発生器110のカウン
トアップに従って実行し、アドレス発生器110の第一
層カウンタ120から特徴データカウンタ123までカ
ウントアップが終了すれば、学習が終了し、学習させる
出力層のニューロンの入力データの値が0以外のとなる
入力の重みが全て、より重く変更されたことになる。
【0079】(実施例4)本発明の第4の実施例を図9
に示す。本発明の図9の実施例は、前記図7の実施例と
同様に特徴データを学習、認識する回路であるが、最終
層の重みの値の更新について、第三層の量子化ニューロ
ンの出力の大小、即ち、強く反応したネットワークに対
しては重みをより一層重く変更し、さほど反応しなかっ
たネットワークに対しては重みを少しだけ重く変更する
ように、重み変更するものである。
【0080】本発明の図9の実施例においては、重み更
新器126に加えて、シフタ127が追加されている。
該シフタ127への入力は、第三層の量子化ニューロン
の出力であるテーブルメモリ112の出力、すなわち3
層のニューラルネットワークの発火量である。
【0081】前記シフタ127は、テーブルメモリ11
2の出力に基いて、その出力の値に応じた値の重み更新
量を算出するものである。例えば、テーブルメモリ11
2の値が8ビット(00〜FF)(16進表現)であ
り、重みメモリ111の値も8ビットであり、シフタ1
27は4ビット右にシフトするもので構成されるとす
る。すなわち、シフタ127が算出する重み更新量は、
テーブルメモリ112の値を4ビット右にシフト(例え
ば最大値FFであるときには右4ビットシフトした0F
になる)して、重み更新量を重みメモリ111の重みの
値よりも小値の量としている。
【0082】前記シフタ127の重み更新量は重み更新
器126に出力されている。該重み更新器126は、図
10に示すように、重みメモリ111から出力された重
みデータと、シフタ127から出力された重み更新量と
を加算して重み更新値を算出する加算器128で実現さ
れている。該加算器128から出力される重み更新量は
重みメモリ111に出力される。
【0083】その他の構成は、前記第3の実施例と同様
である。すなわち、特徴データメモリ107〜109
は、それぞれ第一層〜第三層の量子化ニューロンの量子
化信号入力端子Sに与えるデータが保持されている。係
数メモリ101〜103は、それぞれ第一層〜第三層の
量子化ニューロンの結合係数が保持されている。テーブ
ルメモリ112は、それぞれ係数メモリ101〜103
からの出力を入力とし、それらの結合係数を掛け合わせ
た値を出力する。重みメモリ111は量子化ニューロン
のネットワークの最終層のニューロンの重みを保持す
る。累積演算器113は、テーブルメモリ112の出力
と重みメモリ111の出力とを入力とし、総合結合係数
と重みとの乗算結果を累積加算する。制御回路115
は、書き込み制御WEを重みメモリ111に出力し、学
習制御信号T、及び学習させる最終層のニューロンの番
号Tpをアドレス発生器110に出力し、第一層〜第三
層の各結合係数の0以外のデータの個数Wj、Wk、W
hをアドレス発生器110及びアドレス変換器104〜
106に出力する。アドレス変換器104〜106は、
アドレス発生器110と対応する特徴データメモリ10
7〜109のデータを受け取り、これ等を、それぞれ係
数メモリ101〜103へのアドレスと、重みメモリ1
11への一部のアドレスに変換する。
【0084】本発明の第4の実施例の動作について説明
する。
【0085】先ず、特徴データの認識の場合について説
明する。この場合は、第2の実施例と同様の動作を行う
ことになる。各層の特徴データメモリ107、108、
109には、認識すべき画像の特徴データが書き込まれ
ている。
【0086】アドレス発生器110の特徴データカウン
タ123の出力jによって特徴データメモリ107、1
08、109から各層の特徴データj、k、hが読み出
される。
【0087】アドレス変換器104は、第一層の特徴デ
ータj、アドレス発生器110の第一層カウンタ120
の出力x、第一層の結合係数の0以外のデータの個数W
jを入力としている。アドレス変換器104は、第一層
の量子化ニューロンの結合係数を保持している係数メモ
リ101のアドレスと、最終層のニューロンの重みを記
憶している重みメモリ111のアドレスの一部を算出変
換する。
【0088】係数メモリ101のアドレスへの出力jj
jは(数4)で与えられ、重みメモリ111のアドレス
への出力jjは(数5)で与えられる。ここで、量子化
ニューロンの出力数を8、量子化信号入力のレベルを0
〜7とした場合、その出力の変数の範囲は0〜7であ
る。jjj、jjの結果の下位より3ビットを出力とす
る。
【0089】同様に、アドレス変換器105は、第二層
の量子化ニューロンの結合係数を保持している係数メモ
リ102のアドレスと、最終層のニューロンの重みを記
憶している重みメモリ111のアドレスの一部とを算出
して出力し、アドレス変換器106は、第三層の係数メ
モリ103のアドレスと、最終層のニューロンの重みを
記憶している重みメモリ111のアドレスの一部とを算
出し、出力する。
【0090】量子化ニューロンのネットワークの最終層
のニューロンの重みを保持する重みメモリ111は、ア
ドレス変換器104、105、106からの入力jj、
kk、hhと、アドレス発生器110の特徴データカウ
ンタ123の出力iと、アドレス発生器110の選択回
路125により選択された出力層カウンター124の出
力の値pからの入力によって、テーブルメモリ112の
出力データ(すなわち、第三層の量子化ニューロンの出
力)に一致する最終層のニューロンの重みデータを出力
する。
【0091】累積演算器113はテーブルメモリ112
の出力と重みメモリ111の出力を掛け合わせ累積す
る。
【0092】以上の動作を、アドレス発生器110のカ
ウントアップに従って実行する。アドレス発生器110
の出力層カウンタ124の出力が変化するときに、その
アドレスに累積演算器113の値を出力メモリ114に
書き込み、累積演算器113の値を0に戻す。
【0093】アドレス発生器110のカウントアップが
終了すれば、認識の演算が終了し、出力メモリ114に
は量子化ニューロンのネットワークの解答出力が得られ
る。このように、第2の実施例と同様の動作を行う。
【0094】次に、重みメモリ111に記憶している重
みデータの学習を説明する。
【0095】先ず、アドレス発生器110の特徴データ
カウンタ123の出力iによって特徴データメモリ10
7、108、109から、各層に与えられる特徴データ
j、k、hが読み出される。アドレス変換器104は、
第一層の特徴データJ、アドレス発生器110の第一層
カウンター120の出力x、第一層の結合係数の0以外
のデータの個数Wjを入力として、最終層のニューロン
の重みを記憶している重みメモリ111のアドレスの一
部を算出する。この算出式は、認識時と同一であり、重
みメモリ111のアドレスへの出力jjは前記第1の実
施例での(数4)である。同様に、他の2個のアドレス
変換器105,106も、最終層のニューロンの重みを
記憶している重みメモリ111のアドレスの一部kk、
hhを算出し、その各アドレスkk、hhを出力する。
【0096】学習モードであるので、制御回路115か
らは学習制御信号T、及び学習させる最終層のニューロ
ンの番号Tpの信号が出力され、アドレス発生器110
の選択回路125は、制御回路115からの学習するニ
ューロンの番号Tpを選択する。
【0097】量子化ニューロンのネットワークの最終層
のニューロンの重みを保持する重みメモリ111は、ア
ドレス変換器104、105、106からのアドレス入
力jj、kk、hhと、アドレス発生器110の特徴デ
ータカウンタ123の出力iと、アドレス発生器110
の選択回路125で選択された制御回路115からの学
習ニューロンの番号Tpである出力値pからの入力によ
って、これ等に対応するアドレスに記憶された重みデー
タであって第三層の量子化ニューロンの出力が0以外の
値を持つデータを重み更新器116に出力する。
【0098】また、シフタ127では、テーブルメモリ
112の出力値に応じた値の重み更新量が算出され、重
み更新器126は、前記重みメモリ111から入力され
た重みデータと、シフタ127から入力された重み更新
量を加算し、その加算結果の重み更新値を重みメモリ1
11の入力に出力する。重みメモリ111は、制御回路
115からの書き込み信号WEを受けることによって、
前記重み更新器126にデータを読み出しているアドレ
スと同じアドレスに重み更新値を書き込む。したがっ
て、強く反応した,すなわち発火量が大きい量子化ニュ
ーロンが接続されているネットワークの重みは一層重く
変更され、弱い反応の,すなわち発火量が小さい量子化
ニューロンが接続されているネットワークの重みは若干
重く変更される。その結果、ネットワークの反応の強弱
を表している演算結果の大小によって重みの変更濃度が
可変となるので、早期の学習効果が得られる。
【0099】以上の動作をアドレス発生器110のカウ
ントアップに従って実行する。アドレス発生器110の
第一層カウンタ120から特徴データカウンタ123ま
でカウントアップが終了すれば、重みの学習が終了し、
学習させる出力層のニューロンの入力データの値が0以
外のとなる入力の重みを全て変更したことになる。
【0100】(実施例5)本発明の第5の実施例を図1
1に示す。本発明の図11の実施例は、特徴データを学
習、認識し、最終層の重みの値を更新する回路である
が、その重みの値がより重い側に変更されることに起因
してオーバーフローする場合を考慮したものである。
【0101】すなわち、図11及び図12に示す重み更
新器131には、重みメモリ111の重みデータに+1
を加算する加算器132が備えられると共に、重みメモ
リ111の重みデータを1/2に減少させる1/2回路
133が備えられる。前記加算器132は、重みデータ
に+1を加算した際に、その加算結果としての重み更新
値がオーバーフローした場合(例えば、重みメモリ11
1のデータ幅が8ビットの場合にはFF(16進表現)
に+1すると本来100(16進表現)となるべきであ
るにも拘らず、00となってしまい、重みの値が壊れて
しまう場合)には、オーバーフロー発生信号OVを制御
回路135に出力するものである。
【0102】また、制御回路135は、前記重み更新器
131の加算器132からのオーバーフロー発生信号O
Vの発生時には、書き込み信号WEを重みメモリ111
に出力しない。また、制御回路135は、重み更新器1
31に選択信号Sを出力し、学習が進行して学習する出
力層のニューロンの入力の重みを全て変更した後は、そ
の選択信号Sを、加算器132の出力を選択する内容か
ら、1/2回路133の出力を選択する内容に切換える
と共に、アドレス発生器110に与えるべき結合係数の
0でない個数Wj、Wk、Whをそれぞれ最大値、この
実施例では8に設定し直す機能を有する。
【0103】更に、前記重み更新器131は、図12に
示すように、選択回路134を有する。該選択回路13
4は、制御回路135から出力される選択信号Sの内容
に従って加算器132の出力又は1/2回路133の出
力を選択するものである。
【0104】その他の構成は、前記第3の実施例と同様
である。すなわち、特徴データメモリ107〜109
は、それぞれ第一層〜第三層の量子化ニューロンの量子
化信号入力端子Sに与えるデータが保持されている。係
数メモリ101〜103は、それぞれ第一層〜第三層の
量子化ニューロンの結合係数が保持されている。テーブ
ルメモリ112は、それぞれ係数メモリ101〜103
からの出力を入力とし、それらの結合係数を掛け合わせ
た値を出力する。重みメモリ111は量子化ニューロン
のネットワークの最終層のニューロンの重みを保持す
る。累積演算器113は、テーブルメモリ112の出力
と重みメモリ111の出力とを入力とし、総合結合係数
と重みとの乗算結果を累積加算する。制御回路135
は、書き込み制御WEを重みメモリ111に出力し、学
習制御信号T、及び学習させる最終層のニューロンの番
号Tpをアドレス発生器110に出力し、第一層〜第三
層の各結合係数の0以外のデータの個数Wj、Wk、W
hをアドレス発生器110及びアドレス変換器104〜
106に出力する。アドレス変換器104〜106は、
アドレス発生器110と対応する特徴データメモリ10
7〜109のデータを受け取り、これ等を、それぞれ係
数メモリ101〜103へのアドレスと、重みメモリ1
11への一部のアドレスに変換する。
【0105】本発明の第5の実施例の動作について説明
する。
【0106】先ず、特徴データの認識の場合について説
明する。この場合は、第2の実施例と同様の動作を行う
ことになる。各層の特徴データメモリ107、108、
109には、認識すべき画像の特徴データが書き込まれ
ている。
【0107】アドレス発生器110の特徴データカウン
タ123の出力jによって特徴データメモリ107、1
08、109から各層の特徴データj、k、hが読み出
される。
【0108】アドレス変換器104は、第一層の特徴デ
ータj、アドレス発生器110の第一層カウンタ120
の出力x、第一層の結合係数の0以外のデータの個数W
jを入力としている。アドレス変換器104は、第一層
の量子化ニューロンの結合係数を保持している係数メモ
リ101のアドレスと、最終層のニューロンの重みを記
憶している重みメモリ111のアドレスの一部を算出変
換する。
【0109】係数メモリ101のアドレスへの出力jj
jは(数4)で与えられ、重みメモリ111のアドレス
への出力jjは(数5)で与えられる。ここで、量子化
ニューロンの出力数を8、量子化信号入力のレベルを0
〜7とした場合、その出力の変数の範囲は0〜7であ
る。jjj、jjの結果の下位より3ビットを出力とす
る。
【0110】同様に、アドレス変換器105は、第二層
の量子化ニューロンの結合係数を保持している係数メモ
リ102のアドレスと、最終層のニューロンの重みを記
憶している重みメモリ111のアドレスの一部とを算出
して出力し、アドレス変換器106は、第三層の係数メ
モリ103のアドレスと、最終層のニューロンの重みを
記憶している重みメモリ111のアドレスの一部とを算
出し、出力する。
【0111】量子化ニューロンのネットワークの最終層
のニューロンの重みを保持する重みメモリ111は、ア
ドレス変換器104、105、106からの入力jj、
kk、hhと、アドレス発生器110の特徴データカウ
ンタ123の出力iと、アドレス発生器110の選択回
路125により選択された出力層カウンター124の出
力の値pからの入力によって、テーブルメモリ112の
出力データ(すなわち、第三層の量子化ニューロンの出
力)に一致する最終層のニューロンの重みデータを出力
する。
【0112】累積演算器113はテーブルメモリ112
の出力と重みメモリ111の出力を掛け合わせ累積す
る。
【0113】以上の動作を、アドレス発生器110のカ
ウントアップに従って実行する。アドレス発生器110
の出力層カウンタ124の出力が変化するときに、その
アドレスに累積演算器113の値を出力メモリ114に
書き込み、累積演算器113の値を0に戻す。
【0114】アドレス発生器110のカウントアップが
終了すれば、認識の演算が終了し、出力メモリ114に
は量子化ニューロンのネットワークの解答出力が得られ
る。このように、第2の実施例と同様の動作を行う。
【0115】次に、重みメモリ111に記憶している重
みデータの学習を説明する。
【0116】先ず、アドレス発生器110の特徴データ
カウンタ123の出力iによって特徴データメモリ10
7、108、109から、各層に与えられる特徴データ
j、k、hが読み出される。アドレス変換器104は、
第一層の特徴データJ、アドレス発生器110の第一層
カウンター120の出力x、第一層の結合係数の0以外
のデータの個数Wjを入力として、最終層のニューロン
の重みを記憶している重みメモリ111のアドレスの一
部を算出する。この算出式は、認識時と同一であり、重
みメモリ111のアドレスへの出力jjは前記第1の実
施例での(数4)である。同様に、他の2個のアドレス
変換器105,106も、最終層のニューロンの重みを
記憶している重みメモリ111のアドレスの一部kk、
hhを算出し、その各アドレスkk、hhを出力する。
【0117】学習モードであるので、制御回路115か
らは学習制御信号T、及び学習させる最終層のニューロ
ンの番号Tpの信号が出力され、アドレス発生器110
の選択回路125は、制御回路115からの学習するニ
ューロンの番号Tpを選択する。
【0118】量子化ニューロンのネットワークの最終層
のニューロンの重みを保持する重みメモリ111は、ア
ドレス変換器104、105、106からのアドレス入
力jj、kk、hhと、アドレス発生器110の特徴デ
ータカウンタ123の出力iとを有する。
【0119】また、前記重みメモリ11は、図13のフ
ローチャートのステップS1に示すように、アドレス発
生器110の選択回路125で選択された制御回路11
5からの学習ニューロン番号Tpの出力の値pからの入
力によって、第三層の量子化ニューロンの出力が0以外
の値を持つ重みデータのうち更新すべきアドレスが指定
されて、ステップS2に示すように指定されたアドレス
の重みデータを読み出し、該重みデータを重み更新器1
31に出力する。
【0120】重み更新器131では、選択回路134が
制御回路135からの選択信号Sの内容によって加算器
132の出力を選択している。従って、重み更新器13
1の加算器132が、ステップS3に示すように前記重
み更新器131から入力された重みデータに+1を加算
する。そして、ステップS4に示すように重みデータの
更新結果がオーバーフローしているか否かを判別し、オ
ーバーフローしている場合には、ステップS5に示すよ
うに加算器132はオーバーフロー発生信号OVを制御
回路135に出力する。このため、制御回路135は、
このオーバーフロー発生時に書き込み信号WEを重みメ
モリ111に出力しないので、このオーバーフロー発生
時では、重み更新器131にデータを読み出しているア
ドレスと同じアドレスの重みデータの更新は行われな
い。一方、オーバーフローしていない場合には、選択回
路134は、その重みデータの加算結果を重みメモリ1
11の入力に出力する。重みメモリ111では、制御回
路135からの書き込み信号WEを受けることによっ
て、ステップS6に示すように前記重み更新器131か
らデータを読み出しているアドレスと同じアドレスに重
みデータの更新結果を書き込むことにより、重みデータ
を更新する。そして、ステップS7に示すように重みデ
ータの更新が全て済んでいるか否かを判別し、更新が全
て済んでいない場合、即ち、以上の動作がアドレス発生
器110のカウントアップに従って行われ、アドレス発
生器110の第一層カウンタ120から特徴データカウ
ンタ123までカウントアップが終了していない場合に
は、ステップS8に示すように次に更新すべき重みメモ
リ111のアドレスを指定して、ステップS2に戻る。
【0121】その後、重みデータの学習が進行し、終了
すれば、学習させる出力層のニューロンの入力データの
値が0以外のとなる入力の重みが変更されたことにな
る。ここで、ステップS9に示すように前記オーバーフ
ロー発生信号OVが出力されていない場合には、そのま
ま終了するが、オーバーフロー発生信号OVの出力時に
は、制御回路135からの選択信号Sの内容が切換えら
れることによって、重み更新器131の選択回路134
は1/2回路133の出力を選択すると共に、制御回路
135からアドレス発生器110に与えられる数値(結
合係数が0でない個数)Wj、Wk、Whがそれぞれ最
大値である8に設定し直されるので、アドレス発生器1
10をカウントアップしていくことにより、重みメモリ
111の全てのアドレスにアクセスして、ステップS1
0に示すように、その各アドレスの重みの値は全て1/
2回路133において同率の割合、即ち1/2に書き換
えられ、減少させられる。そして、全ての重みの値の書
き換えを終了した時点で、制御回路135からの選択信
号sの内容が切換えられることによって選択回路134
は再び加算器132の出力を選択して、通常の状態に戻
る。
【0122】以上の構成により、特徴データの学習を有
限なハードウェアで効率よく実行することができる。
【0123】(実施例6)本発明の第6の実施例を図1
4に示す。
【0124】本発明の図14の実施例は、濃淡が単調で
変化に乏しい画像の間でも高い認識率が得られるよう
に、入力する特徴データを特殊に変換して特徴データ間
の差を拡げた後、特徴データメモリ137〜139に与
え、その後、特徴データによって最終層の重みの値の更
新しながら、ネットワークの演算を行って、特徴データ
を認識する回路である。ここで、図4と共通の構成要素
は同一の番号を付している。
【0125】図14の第6の実施例においては、ルック
アップテーブル141〜143が追加されている。該各
ルックアップテーブル141〜143は、外部から与え
られる特徴データをアドレスとし、該特徴データをルッ
クアップテーブル141〜143内に書かれた内容、例
えば指数伸長や対数伸長などに従って非線形変換するも
のであり、その変換された特徴データは特徴データメモ
リ137〜139に入力される。
【0126】その他の構成は、前記第3の実施例と同様
である。すなわち、特徴データメモリ107〜109
は、それぞれ第一層〜第三層の量子化ニューロンの量子
化信号入力端子Sに与えるデータが保持されている。係
数メモリ101〜103は、それぞれ第一層〜第三層の
量子化ニューロンの結合係数が保持されている。テーブ
ルメモリ112は、それぞれ係数メモリ101〜103
からの出力を入力とし、それらの結合係数を掛け合わせ
た値を出力する。重みメモリ111は量子化ニューロン
のネットワークの最終層のニューロンの重みを保持す
る。累積演算器113は、テーブルメモリ112の出力
と重みメモリ111の出力とを入力とし、総合結合係数
と重みとの乗算結果を累積加算する。
【0127】重み更新器116は、重みメモリ111か
ら出力される重みデータを入力とし、その入力された重
みデータに+1を加算して更新データを算出し、この更
新データを重みメモリ111に出力している。制御回路
115は、書き込み制御WEを重みメモリ111に出力
し、学習制御信号T、及び学習させる最終層のニューロ
ンの番号Tpをアドレス発生器110に出力し、第一層
〜第三層の各結合係数の0以外のデータの個数Wj、W
k、Whをアドレス発生器110及びアドレス変換器1
04〜106に出力する。アドレス変換器104〜10
6は、アドレス発生器110と対応する特徴データメモ
リ107〜109のデータを受け取り、これ等を、それ
ぞれ係数メモリ101〜103へのアドレスと、重みメ
モリ111への一部のアドレスに変換する。
【0128】図8に示すように、アドレス発生器110
は、5つのカウンタと1つの選択回路で構成されてい
る。第一層カウンタ120、第二層カウンタ121と第
三層カウンタ122は、キャリ入力が値1のとき、0か
ら(幅入力の値−1)までカウントアップする。例え
ば、幅入力の値が3であれば、0、1、2とカウントし
た後、0に戻り、再び1、2とカウントする。特徴デー
タカウンタ123は、特徴データ数だけカウントするカ
ウンタであり、出力層カウンタ124は出力ニューロン
数だけカウントするカウンタである。選択回路125
は、学習制御信号Tによって制御回路115からの学習
させる最終層のニューロンの番号Tpか、又は出力層カ
ウンタ124の出力を選択するものであり、学習制御信
号Tを受信している学習時には学習させる最終層のニュ
ーロンの番号Tpが選択され、学習制御信号Tを受信し
ていない認識時には、出力層カウンタ124が選択され
る。
【0129】本発明の第6の実施例の動作について説明
する。
【0130】各層に特徴データが入力される。これらの
特徴データは141〜143のルックアップテーブル1
41〜143の内容に従ってデータが指数伸長又は対数
伸長等の非線形変換が行われ、その後、この非線形変換
された特徴データが特徴データメモリ137〜139に
それぞれ保持される。
【0131】前記特徴データメモリ137〜139に特
徴データが保持された状態でこの特徴データを認識する
場合について以下説明する。この認識の場合は、第2の
実施例と同様の動作を行うことになる。各層の特徴デー
タメモリ107、108、109には、認識すべき画像
の特徴データが書き込まれている。
【0132】アドレス発生器110の特徴データカウン
タ123の出力jによって特徴データメモリ107、1
08、109から各層の特徴データj、k、hが読み出
される。
【0133】アドレス変換器104は、第一層の特徴デ
ータj、アドレス発生器110の第一層カウンタ120
の出力x、第一層の結合係数の0以外のデータの個数W
jを入力としている。アドレス変換器104は、第一層
の量子化ニューロンの結合係数を保持している係数メモ
リ101のアドレスと、最終層のニューロンの重みを記
憶している重みメモリ111のアドレスの一部を算出変
換する。
【0134】係数メモリ101のアドレスへの出力jj
jは(数4)で与えられ、重みメモリ111のアドレス
への出力jjは(数5)で与えられる。ここで、量子化
ニューロンの出力数を8、量子化信号入力のレベルを0
〜7とした場合、その出力の変数の範囲は0〜7であ
る。jjj、jjの結果の下位より3ビットを出力とす
る。
【0135】同様に、アドレス変換器105は、第二層
の量子化ニューロンの結合係数を保持している係数メモ
リ102のアドレスと、最終層のニューロンの重みを記
憶している重みメモリ111のアドレスの一部とを算出
して出力し、アドレス変換器106は、第三層の係数メ
モリ103のアドレスと、最終層のニューロンの重みを
記憶している重みメモリ111のアドレスの一部とを算
出し、出力する。
【0136】量子化ニューロンのネットワークの最終層
のニューロンの重みを保持する重みメモリ111は、ア
ドレス変換器104、105、106からの入力jj、
kk、hhと、アドレス発生器110の特徴データカウ
ンタ123の出力iと、アドレス発生器110の選択回
路125により選択された出力層カウンター124の出
力の値pからの入力によって、テーブルメモリ112の
出力データ(すなわち、第三層の量子化ニューロンの出
力)に一致する最終層のニューロンの重みデータを出力
する。
【0137】累積演算器113はテーブルメモリ112
の出力と重みメモリ111の出力を掛け合わせ累積す
る。
【0138】以上の動作を、アドレス発生器110のカ
ウントアップに従って実行する。アドレス発生器110
の出力層カウンタ124の出力が変化するときに、その
アドレスに累積演算器113の値を出力メモリ114に
書き込み、累積演算器113の値を0に戻す。
【0139】アドレス発生器110のカウントアップが
終了すれば、認識の演算が終了し、出力メモリ114に
は量子化ニューロンのネットワークの解答出力が得られ
る。このように、第2の実施例と同様の動作を行う。
【0140】次に、重みメモリ111に記憶している重
みデータの学習を説明する。
【0141】先ず、アドレス発生器110の特徴データ
カウンタ123の出力iによって特徴データメモリ10
7、108、109から、各層に与えられる特徴データ
j、k、hが読み出される。アドレス変換器104は、
第一層の特徴データJ、アドレス発生器110の第一層
カウンター120の出力x、第一層の結合係数の0以外
のデータの個数Wjを入力として、最終層のニューロン
の重みを記憶している重みメモリ111のアドレスの一
部を算出する。この算出式は、認識時と同一であり、重
みメモリ111のアドレスへの出力jjは前記第1の実
施例での(数4)である。同様に、他の2個のアドレス
変換器105,106も、最終層のニューロンの重みを
記憶している重みメモリ111のアドレスの一部kk、
hhを算出し、その各アドレスkk、hhを出力する。
【0142】学習モードであるので、制御回路115か
らは学習制御信号T、及び学習させる最終層のニューロ
ンの番号Tpの信号が出力され、アドレス発生器110
の選択回路125は、制御回路115からの学習するニ
ューロンの番号Tpを選択する。
【0143】量子化ニューロンのネットワークの最終層
のニューロンの重みを保持する重みメモリ111は、ア
ドレス変換器104、105、106からのアドレス入
力jj、kk、hhと、アドレス発生器110の特徴デ
ータカウンタ123の出力iと、アドレス発生器110
の選択回路125で選択された制御回路115からの学
習ニューロンの番号Tpである出力値pからの入力によ
って、これ等に対応するアドレスに記憶された重みデー
タであって第三層の量子化ニューロンの出力が0以外の
値を持つデータを重み更新器116に出力する。
【0144】重み更新器116は、入力された重みデー
タに+1を加え、その加算結果である重み更新値を重み
メモリ111の入力に出力する。重みメモリ111は、
制御回路115からの書き込み信号WEによって、重み
更新器116に重みデータを読み出しているアドレスと
同じアドレスに、前記重み更新器116から入力された
重み更新値を書き込む。
【0145】以上の動作を、アドレス発生器110のカ
ウントアップに従って実行する。アドレス発生器110
の第一層カウンタ120から特徴データカウンタ123
までカウントアップが終了すれば、学習が終了し、学習
させる出力層のニューロンの入力データの値が0以外の
となる入力の重みを全て変更したことになる。
【0146】したがって、本実施例では、画像の濃淡が
単調で変化が乏しくて、画素値や、その横方向の差分
値、縦方向の差分値が小さく、特徴データに画像間の差
が出にくい場合であっても、入力する特徴データがルッ
クアップテーブル141〜143によって非線形変換さ
れて、その特徴データ間の差が拡げられた後、特徴デー
タメモリ137〜139に与えられるので、認識すべき
画像に適切な濃淡が付けられて、その画像の認識率が高
くなる。
【0147】(実施例7)本発明の第7の実施例を図1
5に示す。本発明の図15の実施例は、画像の認識率を
一層高めるものである。すなわち、量子化ニューロン間
の結合係数が例えば図23(a)の量子化信号入力=0
のときの場合には、値が0以外である出力番号は同図か
ら判るように0、1、7であるが、出力番号=7での値
は、出力番号=0(即ち、結合係数が最も大きい部分)
と離れた位置にあり、このため画像の認識率が低下す
る。このことは、画像の右端と左端とでは、画像そのも
のの連続性がないこと、つまり、ある画素に注目したと
き、その画素の右端は、その画素のひとつ右側に位置す
る画素の左端とは連続しているが、その画素の右端とは
連続していないことからも判る。以上のことから、例え
ば図23(a)に示す結合係数をもつ場合には、出力番
号7では結合係数を0にすることで認識率の向上を図る
こととしている。
【0148】図15に示す第7の実施例では、図4と共
通の構成要素は同一の番号としている。
【0149】図15に示す第7の実施例では、第一層〜
第三層の各アドレス変換器144〜146は、それぞれ
制御信号Gを出力する。この各制御信号Gは、対応する
係数メモリ101〜103のアドレスへの出力jjj、
kkk,hhhが第2の実施例の演算式(数4)により
計算された結果、jjj<0又はjjj>7の場合、k
kk<0又はkkk>7の場合、及びhhh<0又はh
hh>7の場合に、対応する各アドレス変換器144〜
146から出力される。
【0150】また、図15の回路では、マルチプレクサ
147〜149が追加されている。該各マルチプレクサ
147〜149は、0のアドレス信号と、対応する係数
メモリ101〜103からのアドレス信号J、K、Hと
を受けると共に、制御信号として前記対応するアドレス
変換器144〜146からの制御信号Gを受け、該制御
信号Gを受けたときには、“0”の方を選択して、テー
ブルメモリ112の対応するアドレスJ、K、Hに
“0”を入力するものである。
【0151】その他の構成は前記第3の実施例と同様で
ある。すなわち、図15の回路において、特徴データメ
モリ107〜109は、それぞれ第一層〜第三層の量子
化ニューロンの量子化信号入力端子Sに与える特徴デー
タが保持されている。係数メモリ101〜103には、
それぞれ第一層〜第三層の量子化ニューロンの結合係数
が保持されている。テーブルメモリ112は、係数メモ
リ101〜103からの出力を入力とし、それらの各結
合係数を掛け合わせた値を出力する。重みメモリ111
は量子化ニューロンのネットワークの最終層のニューロ
ンの重みを保持する。累積演算器113は、テーブルメ
モリ112の出力と重みメモリ111の出力とを入力と
し、累積加算を行う。
【0152】重み更新器116は、重みメモリ111か
ら出力された最終層ニューロンの重みを入力とし、該重
みを更新した新な重みを更新データとして出力してい
る。制御回路115は、重みメモリ111に書き込み制
御WEを出力すると共に、アドレス発生器110に対し
て学習制御信号Tと、学習させる最終層のニューロンの
番号Tpの信号を出力し、第一層〜第三層の各結合係数
の0以外のデータの個数Wj、Wk、Whをアドレス発
生器110及びアドレス変換器104〜106に出力し
ている。アドレス変換器144〜146は、アドレス発
生器110と対応する特徴データメモリ107〜109
の両データを受け取り、それぞれ、係数メモリ101〜
103へのアドレスの変換と重みメモリ111へのアド
レスへの変換を行う。
【0153】また、図8に示すアドレス発生器110に
おいて、第一層カウンタ120、第二層カウンタ12
1、及び第三層カウンタ122は、キャリ入力が値1の
とき、0から(幅入力の値−1)までカウントアップ
し、特徴データカウンタ123は、特徴データの数だけ
カウントし、出力層カウンタ124は出力ニューロン数
だけカウントする。選択回路125は、学習制御信号T
によって、制御回路115からの学習させる最終層のニ
ューロンの番号Tpか、出力層カウンタ124の出力か
の何れかを選択し、学習制御信号Tを受けた学習時に
は、学習させる最終層のニューロンの番号Tpを選択
し、学習制御信号Tを受けない特徴データの認識時に
は、出力カウンタ124の出力を選択する。
【0154】本発明の第7の実施例の動作について説明
する。
【0155】先ず、特徴データの認識の場合について説
明する。この場合は、第2の実施例と同様の動作を行う
ことになる。特徴データメモリ107、108、109
には、認識すべき画像の特徴データが書き込まれてい
る。
【0156】アドレス発生器110の特徴データカウン
タ123の出力jによって特徴データメモリ107、1
08、109から各層の特徴データj、k、hが読み出
される。
【0157】アドレス変換器144は、第一層の特徴デ
ータj、アドレス発生器110の第一層カウンター12
0の出力x、制御回路115からの第一層の結合係数の
0以外のデータの個数Wjを入力としている。アドレス
変換器144は、第一層の量子化ニューロンの結合係数
を保持している係数メモリ101のアドレスと、最終層
のニューロンの結合係数を記憶している重みメモリ11
1のアドレスの一部を算出する。
【0158】係数メモリ101のアドレスへの出力jj
jは(数4)で与えられ、重みメモリ111のアドレス
への出力jjは(数5)で与えられる。ここで、量子化
ニューロン出力数を8、量子化信号入力のレベルを0〜
7とした場合、それの変数の範囲は0〜7である。jj
j、jjの結果の下位より3ビットを出力とする。ここ
で、(数4)において、jjj<0又はjjj>7の場
合には、対応するアドレス変換器144からの制御信号
Gによってマルチプレクサ147は“0”の方を選択す
る。つまり、テーブルメモリ112のアドレスJには
“0”が入力される。
【0159】同様に、アドレス変換器105は、第二層
の量子化ニューロンの結合係数を保持している係数メモ
リ102のアドレスkkkと、最終層のニューロンの係
数を記憶している重みメモリ111のアドレスkkの一
部を算出して出力し、アドレス変換器106は、第三層
の量子化ニューロンの結合係数を保持している係数メモ
リ103のアドレスhhhと、最終層のニューロンの係
数を記憶している重みメモリ111のアドレスの一部h
hを算出し、出力する。第一層の場合と同様に、kkk
<0またはkkk>7の場合には、対応するアドレス変
換器145の制御信号Gによりマルチプレクサ148は
“0”を選択し、hhh<0またはhhh>7の場合に
は、アドレス変換器146の制御信号Gによりマルチプ
レクサ148は“0”を選択し、それぞれテーブルメモ
リ112のアドレスK、Hに“0”を入力する。
【0160】量子化ニューロンのネットワークの最終層
のニューロンの重みを保持する重みメモリ111は、ア
ドレス変換器144、145、146からの入力jj、
kk、hhと、アドレス発生器110の特徴データカウ
ンター123の出力iと、アドレス発生器110の選択
回路125により選択された出力層カウンター124の
出力の値pからの入力によって、テーブルメモリ112
の出力データ(すなわち、第三層の量子化ニューロンの
出力)に一致する最終層のニューロンの重みデータを出
力する。
【0161】累積演算器113はテーブルメモリ112
の出力と重みメモリ111の出力とを掛け合わせ、累積
する。
【0162】以上の動作を、アドレス発生器110のカ
ウントアップに従って実行する。アドレス発生器110
の出力層カウンタ124が変化するときに、そのアドレ
スに累積演算器113の値を書き込み、累積演算器11
3の値を0にする。
【0163】アドレス発生器110のカウントアップが
終了すれば、認識の演算が終了し、出力メモリ114に
は量子化ニューロンのネットワークの解答出力が得られ
る。このように、第2の実施例と同様の動作を行う。
【0164】次に、本実施例における学習の場合につい
て説明する。
【0165】先ず、アドレス発生器110の特徴データ
カウンタ123の出力iによって特徴データメモリ10
7、108、109から、各層に与えられる特徴データ
j、k、hが読み出される。アドレス変換器144は、
第一層の特徴データJ、アドレス発生器110の第一層
カウンター120の出力x、制御回路115からの第一
層の結合係数の0以外のデータの個数Wjを入力とし
て、最終層のニューロンの結合係数を記憶している重み
メモリ111のアドレスの一部を算出する。この算出式
は、認識時と同様であり、重みメモリ111のアドレス
への出力jjは前記第1の実施例での(数4)である。
同様に、他の2個のアドレス変換器145,146は、
最終層のニューロンの係数を記憶している重みメモリ1
11のアドレスの一部kk、hhを算出し、その各アド
レスkk、hhを出力する。
【0166】学習モードであるので、制御回路115か
らは学習制御信号T、及び学習させる最終層のニューロ
ンの番号Tpの信号が出力され、アドレス発生器110
の選択回路125は、制御回路115からの学習ニュー
ロン番号Tpを選択する。
【0167】量子化ニューロンのネットワークの最終層
のニューロンの重みを保持する重みメモリ111は、ア
ドレス変換器144、145、146からのアドレス入
力jj、kk、hhと、アドレス発生器110の特徴デ
ータカウンター123の出力iと、アドレス発生器11
0の選択回路125で選択された制御回路115からの
学習ニューロンの番号Tpである出力の値pからの入力
によって、これ等に対応するアドレスに記憶された重み
データであって第三層の量子化ニューロンの出力が0以
外の値を持つ重みデータを重み更新器116に出力す
る。
【0168】重み更新器116は、入力された重みデー
タに+1を加え、その値を更新データとして重みメモリ
111の入力に出力する。重みメモリ111は、制御回
路115からの書き込み信号WEによって、重み更新器
116に重みデータを読み出しているアドレスと同じア
ドレスに、前期重み更新器116から入力された更新デ
ータを書き込んで、重みデータを更新する。以上の動作
をアドレス発生器110のカウントアップに従って実行
し、アドレス発生器110の第一層カウンタ120から
特徴データカウンタ123までカウントアップが終了す
れ、学習が終了し、学習させる最終層のニューロンの入
力データの値が0以外のとなる入力の重みが全て、より
重く変更されたことになる。
【0169】ここに、jjj<0又はjjj>7、kk
k<0又はkkk>7、及びhhh<0又はhhh>7
の場合、即ち結合係数に値のある出力番号(アドレス)
が、結合係数の値が最も大きい出力番号(アドレス)と
離れた位置にある場合には、対応する係数メモリ101
〜103からは値のある結合係数J、K、Hが出力され
るが、対応するアドレス変換器144〜146からは制
御信号Gが出力され、このため、対応するマルチプレク
サ147〜149は、“0”の結合係数を選択し、この
結合係数をテーブルメモリ112への対応するアドレス
J、K、Hとして入力する。従って、画素の右端が、そ
の画素のひとつ右側に位置する画素の右端と連続するこ
とが防止されるので、特徴データの認識率が向上する。
【0170】(実施例8)図16及び図17は本発明の
第8の実施例を示す。本実施例では、特徴データを量子
化変換し、この量子化変換した特徴データを特徴データ
メモリ107〜109に蓄え、それら特徴データによっ
て認識するニューラルネットワーク回路である。即ち、
量子化変換された特徴データによってネットワークの演
算を行うものである。
【0171】前記図16及び図17の第8の実施例で
は、備えるべき量子化変換メモリの数を少なく制限し
て、ニューラルネットワーク回路を小規模のハードウェ
アで構成しつつ、高い画像認識率を得るニューラルネッ
トワーク回路を提供したものである。図16及び図17
の本発明の回路を説明する前に、本発明者が先に考えた
ニューラルネットワーク回路を図18に示す。
【0172】図18に示すニューラルネットワーク回路
において、量子化変換メモリ161〜163には、予
め、外部から与えられる特徴データを最適に量子化でき
る量子化変換テーブルが与えられている。
【0173】制御回路115は、画像の特徴データの記
憶動作時には、特徴データのロードアドレスを示すAD
信号を出力すると共に、特徴データのLoad 信号を出力
する。マルチプレクサ154〜156は、前記制御回路
115のLoad信号を受けて制御回路115のAD信号を
特徴データメモリ107〜109のアドレス入力に与え
る。外部から与えられた各層第1番目の特徴データは、
それぞれ、対応する量子化変換メモリ161〜163の
アドレスに与えられて量子化変換された後、特徴データ
メモリ107〜109に与えられ、制御回路115のラ
イトイネーブル信号WEh 、WEj 、WEk により内部
に書き込まれる。
【0174】制御回路115のAD信号の値が1だけカ
ウントアップされて第2番目の特徴データが対応する量
子化変換メモリ161〜163に入力され、上記と同様
の処理が行われる。外部から与えられる全ての特徴デー
タに対して前記の動作が繰り返し行われることにより、
外部から与えられる全ての特徴データは、量子化変換メ
モリ161〜163で量子化された後、その量子化され
た値が対応する特徴データメモリ107〜109に蓄え
られる。
【0175】例えば、量子化ニューロンが8レベルのも
のとしたとき、外部より与えられる特徴データが8レベ
ルの値に変換される。
【0176】図18の回路の他の構成は図3の回路と同
様である。すなわち、図18において、特徴データメモ
リ107〜109は、それぞれ第一層〜第三層の量子化
ニューロンの量子化信号入力端子Sに与えるデータが保
持されている。係数メモリ101〜103は、それぞれ
第一層〜第三層の量子化ニューロンの結合係数が保持さ
れている。テーブルメモリ112は、係数メモリ101
〜103からの出力を入力とし、それら結合係数を掛け
合せた値を出力する。重みメモリ111は量子化ニュー
ロンのネットワークの最終層のニューロンの重みを保持
する。累積演算器113は、テーブルメモリ112の出
力と重みメモリ111の出力を入力とし、その両者の累
積加算を行う。制御回路115は、第一層〜第三層の各
結合係数の0以外のデータの数Wj,Wk,Whをアド
レス発生器119とアドレス変換器104〜106に出
力する。アドレス変換器104〜106は、アドレス発
生器119及び特徴データメモリ107〜109の両デ
ータを受け取り、それぞれ係数メモリ101〜103へ
のアドレスの算出と重みメモリ111へのアドレスの算
出を行う。
【0177】図5に示すように、アドレス発生器119
において、第一層カウンタ120、第二層カウンタ12
1、及び第三層カウンタ122は、キャリ入力が値1の
とき、0から(幅入力の値−1)までカウントアップ
し、特徴データカウンタ123は、特徴データ数だけカ
ウンとし、出力層カウンタ124は出力ニューロン数だ
けカウントする。
【0178】次に、この従来回路での画像認識の実行動
作について説明する。
【0179】先ず、アドレス発生器119の特徴データ
カウンター123の出力jによって特徴データメモリ1
07、108、109から各層の特徴データj,k,h
が読み出される。
【0180】アドレス変換器104は、第一層の特徴デ
ータj、アドレス発生器119の第一層カウンター12
0の出力x、第一層の結合係数の0以外のデータの数W
jを入力としている。アドレス変換器104は、第一層
の量子化ニューロンの結合係数を保持している係数メモ
リ101のアドレスと、最終層のニューロンの結合係数
を記憶している重みメモリ111のアドレスの一部を算
出する。
【0181】係数メモリ101のアドレスへの出力jj
jは(数4)で与えられ、重みメモリ111のアドレス
への出力jjは(数5)で与えられる。ここで、量子化
ニューロンの出力数を8、量子化信号入力のレベルを0
〜7とした場合、その出力変数の範囲は0〜7である。
アドレスjjj、jjの結果の下位より3ビットを出力
とする。
【0182】同様に、アドレス変換器105は、第二層
の量子化ニューロンの結合係数を保持している係数メモ
リ102のアドレスと、最終層のニューロンの係数を記
憶している重みメモリ111のアドレスの一部とを算出
して出力し、アドレス変換器106は、第三層の量子化
ニューロンの結合係数を保持している係数メモリ103
のアドレスと、最終層のニューロンの係数を記憶してい
る重みメモリ111のアドレスの一部とを算出し、出力
する。
【0183】量子化ニューロンのネットワークの最終層
のニューロンの重み保持する重みメモリ111は、アド
レス変換器104、105、106からの入力jj、k
k、hhと、アドレス発生器119の特徴データカウン
ター123の出力iと、出力層カウンター124の出力
の値pの入力によって、テーブルメモリ112の出力デ
ータ(即ち、第三層の量子化ニューロンの出力)に一致
する最終層のニューロンの重みデータを出力する。
【0184】累積演算器7はテーブルメモリ112の出
力と重みメモリ111の出力とを掛け合わせ、その乗算
結果を累積する。
【0185】以上の動作を、アドレス発生器119のカ
ウントアップに従って実行する。アドレス発生器119
の出力層カウンタ124の出力が変化するときに、その
アドレスに累積演算器113の値を出力メモリ114に
書き込むと同時に、累積演算器113の値を0に戻す。
【0186】アドレス発生器119のカウントアップが
終了すれば、認識の演算が終了し、出力メモリ114に
は量子化ニューロンのネットワークの解答出力が得られ
る。上記図18に示す量子化ニューロンを使ったニュー
ラルネットワークの従来回路では、各入力層毎に1つの
量子化変換メモリしか持っておらず、高い認識率の達成
が困難である。このため、量子化ニューロン毎に量子化
変換メモリを持つこととすると、ハードウェアが膨大に
なり、非常に高価になってしまう。
【0187】次に、図16及び図17に示す本発明の第
8の実施例のニューラルネットワーク回路を説明する。
【0188】本発明の第8実施例のニューラルネットワ
ーク回路では、量子化変換器201〜203は、量子化
変換の閾値が保持されている量子化閾値メモリ219
と、そのアドレスを計算するシフタ212と、加算器2
13と、アドレスレジスタ216と、マルチプレクサ2
11と、外部から与えられる特徴データ入力と前記量子
化閾値メモリ219の出力とを比較する比較器218
と、出力の値を選択する出力マルチプレクサ214と、
対応する量子化変換器201〜203を制御する変換制
御回路221で構成されている。
【0189】量子化変換器201〜203の動作につい
て各部の波形図19を用いて説明する。予め、量子化閾
値メモリ219には特徴データの順番に8アドレス毎
に、個々の特徴データに対応した7つの閾値が保持され
ている。8アドレス毎の一番小さなアドレスのデータは
無効とされ、閾値の小さい順番に7種の閾値が記憶され
ている。ここで例えば図19に示すものでは、アドレス
の若い順番に、無効、30,60,90,120,150,180,210, 無
効、25,50,75,125,150,175, 無効、55,80,105,130,180,
205,無効、45,75,105,140,175,205,235 、無効、…200,
230 が保持されている。
【0190】量子化閾値メモリ219のアドレスの下位
3ビットはレジスタ216から供給され、上位の6ビッ
トは演算制御回路203から供給される。
【0191】特徴データメモリ107〜109への特徴
データのロード時には、演算制御回路220はLoad信号
及びset信号を出力すると共に、特徴データのロード
アドレスAD信号を出力する。マルチプレクサ154〜
156は前記演算制御回路220からのLoad信号を受け
て、演算制御回路220のロードアドレスADを選択す
る。
【0192】アドレスレジスタ216は、演算制御回路
220からのset信号により、その出力値が4にセッ
トされ、同時に変換制御回路221は演算制御回路22
0からのset信号を受けて初期状態にセットされる。
その後、変換制御回路221はクロックに従い、シフト
信号とゲート信号とを出力する。シフト信号は、図19
に示すようにセット信号でHIGHになり、第2クロッ
クでLOWとなる。また、ゲート信号は同図に示すよう
に、セット信号でHIGHになり、第3クロックでLO
Wとなる。
【0193】アドレスレジスタ216の出力は、量子化
変換閾値メモリ219の下位アドレスに供給されてお
り、量子化変換閾値メモリ219の上位アドレスは、演
算制御回路220のロードアドレスADが供給されてい
る。すなわち、量子化変換閾値メモリ219は、ロード
アドレスADにより、量子化する際の7つの閾値を有す
る組を選択すると共に、当初はset信号によって下位
アドレスに与えられる値4により前記選択した組のうち
4番目の閾値、すなわち中央の閾値を読み出す。例え
ば、演算制御回路220のロードアドレスADの値が0
である場合には、閾値120が読み出される。
【0194】前述のように量子化変換閾値メモリ219
から読み出された4番目の閾値は比較器218に出力さ
れ、該比較器218によって、入力されている特徴デー
タが4番目の閾値と比較される。比較器218の出力
は、特徴データ入力の値が、量子化変換閾値メモリ21
9より読み出された閾値より大きいときLOWを出力
し、小さいときHIGHを出力する。例えば入力された
第1番目の特徴データの値が130である場合には、量
子化変換閾値メモリ219から読み出された値120と
比較され、比較器218の出力はLOWとなる。
【0195】比較器218の出力信号と、変換制御回路
221のゲート信号とはアンド回路217に入力され、
該アンド回路217は前記両信号の論理和をとり、該ア
ンド回路217によりマルチプレクサ211が制御され
る。マルチプレクサ211は、アンド217の出力がH
IGHである場合には−1の入力を、LOWである場合
には+1の入力を選択する。即ち、マルチプレクサ21
1の出力は、図19に示すように、第1クロック及び第
2クロックである場合には、比較器218の出力に依存
し、第3クロックである場合にはマルチプレクサ211
は−1の入力を選択する。
【0196】マルチプレクサ211の出力はシフタ21
2に入力される。該シフタ212は、変換制御回路22
1のシフト信号によって0ビット又は1ビットの算術右
シフトを行う。即ち、シフタ212は、第1クロックの
み入力データの1ビットの算術右シフトを実行する。
【0197】シフタ212の出力とアドレスレジスタの
値とは加算器213で加算される。加算器213は、前
記の加算によって次の量子化変換閾値メモリ219のア
ドレスを計算するものである。即ち、第1クロックで中
央の閾値が量子化変換閾値メモリ219から読み出さ
れ、入力された特徴データと比較された結果に応じて、
2つ上の閾値又は2つ下の閾値のアドレスの計算を実行
する。例えば、第1番目の特徴データの値130と、量
子化変換閾値メモリ219から読み出された値120と
が比較され、マルチプレクサ211が+1を選択し、こ
の+1がシフタ212により1ビット算術右シフトされ
て、シフタ212の出力が値2となると、加算器213
は、アドレスレジスタ214の値4とシフタ212の出
力値2との加算を行い、次の閾値が納められているアド
レス6を出力する。
【0198】次に、第2クロックでは、アドレスレジス
タ216は、加算器213の出力を取り込み、次の閾値
が納められているアドレス6を量子化変換閾値メモリ2
19に与える。
【0199】続いて、第1番目の特徴データの値130
と、量子化変換閾値メモリ219から読み出された次の
閾値180とが再び比較器218で比較され、該比較器
218の出力がHIGHとなって、マルチプレクサ21
1が−1を選択し、その−1がシフタ212により0ビ
ット算術右シフトされて、シフタ212の出力が値−1
となる。加算器213は、アドレスレジスタ214の値
6とシフタ212の出力値−1の加算を行い、次の閾値
が納められているアドレス5を出力する。
【0200】第3クロックでは、アドレスレジスタ21
6は、加算器213の出力を取り込み、次の閾値が納め
られているアドレス5を量子化変換閾値メモリ219に
与える。更にもう一度、第1番目の特徴データの値13
0と、量子化変換閾値メモリ219から読み出された次
の閾値150とが比較器218により比較される。この
場合、第3クロックではマルチプレクサ211は必ず−
1を選択し、シフタ212の出力は必ず値−1となる。
従って、加算器213は、アドレスレジスタ214の値
5とシフタ212の出力の値−1の加算を行い、値4を
出力する。このとき、出力レジスタ216の入力値は、
出力レジスタ216の出力値より1小さい値となってい
る。
【0201】出力マルチプレクサ214は、比較器21
8の出力に応じて、出力レジスタ216の入力値又は出
力値を選択し、比較器218の出力がHIGHの場合に
は出力レジスタ216の入力を選択し、比較器218の
出力がLOWの場合には出力レジスタ216の出力を選
択し、出力する。即ち、例えば第3クロックでは、特徴
データの入力値が130であり、量子化変換閾値メモリ
219から読み出された値が150であるので、比較器
218の出力はHIGHとなり、出力マルチプレクサ2
14は、出力レジスタ216の入力を選択し、値4を出
力する。
【0202】以上のように、第3クロック目で、入力さ
れた特徴データの量子化結果が得られ、この値が、対応
するマルチプレクサ156を介し特徴データメモリ10
9に与えられ、演算制御回路220からのライトイネー
ブル信号WEh によって特徴データメモリ109に書き
込まれる。
【0203】その後、演算制御回路220のロードアド
レスADがカウントアップされ、がい演算制御回路22
0からset信号が量子化変換器203に与えられ、上
記と同様の制御が行われる。
【0204】以上の動作を繰り返して、全ての特徴デー
タの量子化変換が行われ、マルチプレクサ156を介し
て、量子化変換された特徴データの全てが特徴データメ
モリ104にロードされる。
【0205】ここに、量子化変換器201〜203は、
それぞれ第一層〜第三層に対応して各1個当てのみ設け
られていて、且つ各量子化ニューロン毎に異なる7個の
量子化変換の閾値でもって対応する特徴データを量子化
できるので、各層1個の量子化変換器201〜203で
もって、量子化ニューロン毎に量子化変換メモリを持っ
たに等しいハードウェアとして、ニューラルネットワー
ク回路を小規模で低高価に構成しつつ、高い画像認識率
を得ることができる。
【0206】そして、前記のように全ての特徴データが
量子化変換されて特徴データメモリ107〜109に書
き込まれた後は、演算制御回路220のLoad信号の内容
が切換えられ、該Load 信号に基いてマルチプレクサ1
54〜156は、アドレス発生器119の出力iの入力
を選択し、特徴データメモリ107〜109に記憶され
た特徴データに対してネットワークの演算が実行され
る。
【0207】以降、ネットワークの演算による画像認識
の実行は従来技術と同様である。
【0208】すなわち、特徴データメモリ107〜10
9には、それぞれ、前述の通り第一層〜第三層の量子化
変換後の特徴データが書き込まれており、該各特徴デー
タメモリ107〜109より各層に与えられる特徴デー
タj,k,hは、アドレス発生器119の特徴データカ
ウンター123の出力iにより読み出される。
【0209】アドレス変換器104は、第1層の特徴デ
ータj,アドレス発生器119の第一層カウンター12
0の出力x、第1層の結合係数の0以外のデータの数W
jを入力とし、第一層の量子化ニューロンの結合係数を
保持している係数メモリ101のアドレスと、最終層の
ニューロンの結合係数を記憶している重みメモリ111
のアドレスの一部とを算出し、出力する。
【0210】係数メモリ101のアドレスへの出力jj
jは(数4)で与えられ、重みメモリ111のアドレス
への出力jjは(数5)で与えられる。ここで、量子化
ニューロンの出力数を8、量子化信号入力のレベルを0
〜7とした場合、その出力の変数の範囲は0〜7であ
る。jjj、jjの結果の下位より3ビットを出力とす
る。
【0211】同様に、アドレス変換器105は、第二層
の量子化ニューロンの結合係数を保持している係数メモ
リ102のアドレスと、最終層のニューロンの係数を記
憶している重みメモリ111のアドレスの一部とを算出
して出力し、アドレス変換器106は、第三層の係数メ
モリ103のアドレスと、最終層のニューロンの重みを
記憶している重みメモリ111のアドレスの一部とを算
出し、出力する。
【0212】量子化ニューロンのネットワークの最終層
のニューロンの重み保持する重みメモリ111は、アド
レス変換器104、105、106からの入力jj、k
k、hhと、アドレス発生器119の特徴データカウン
ター123の出力iと、アドレス発生器110の出力層
カウンター124の出力の値pからの入力によって、テ
ーブルメモリ112の出力データ(即ち、第三層の量子
化ニューロンの出力)に一致する最終層のニューロンの
重みデータを出力する。
【0213】累積演算器113はテーブルメモリ112
の出力と重みメモリ111の出力を掛け合わせ累積す
る。
【0214】以上の動作を、アドレス発生器119のカ
ウントアップに従って実行する。アドレス発生器119
の出力層カウンタ124の出力が変化するときに、出力
メモリ114のそのアドレスに累積演算器113の値を
書き込み、累積演算器113の値を0なる。
【0215】アドレス発生器119のカウントアップが
終了すれば、認識の演算が終了し、出力メモリ114に
は量子化ニューロンのネットワークの解答出力が得られ
る。尚、以上の説明では、量子化ニューロンを用いたネ
ットワークを、1層の特徴データが8×8の64個の3
層のネットワークとし、量子化数を8レベルとし、3層
の特徴データとして説明したが、本発明はこれに限定さ
れず、種々の変形例を含むものである。
【0216】(実施例9)図27ないし図30は本発明
の第9の実施例を示す。本実施例では、初期学習用とし
ての特徴データを予め初期学習用特徴データメモリに記
憶しておき、実際の画像認識の前段階として、前記予め
記憶した特徴データを繰返し参照して最終層のニューロ
ンの重みを更新して、認識処理の学習を行うものであ
る。
【0217】すなわち、図27では、重みメモリ11
1、累積演算器113等、前記実施例3(図7)と同一
の回路が備えられる他、別途、初期学習用特徴データメ
モリ300が設けられる。該初期学習用特徴データメモ
リ300には、予め、図28に示すように、例えばA,
B,C及びDの4種の文字よりなる4個の初期学習用特
徴データが記憶される。該4個の初期学習用特徴データ
は、各々、8×8の画素より成ると共に、第1番目(m
=0)の特徴データはその認識時には図21の最終層の
ニューロンのうちp=0のニューロンの出力値が最大値
になるものが選定され、以下、第2番目(m=1)の特
徴データは最終層のp=1のニューロンの出力値が、第
3番目(m=2)の特徴データは最終層のp=2のニュ
ーロンの出力値が、第4番目(m=3)の特徴データは
最終層のp=3のニューロンの出力値が各々最大値にな
るものが選定される。
【0218】前記初期学習用特徴データメモリ300に
記憶される特徴データに基づく初期学習を図29のフロ
ーチャートに基いて説明する。先ず、ステップS1で重
みメモリ113を初期化すると共に、ステップS2で初
期学習用特徴データメモリ300に前記図28に示す初
期学習用の複数個の特徴データを記憶する。また、ステ
ップS3では、認識を実行した特徴データの数を示すカ
ウンタ値mをm=0に初期設定すると共に、学習が実行
された場合に「1」になる学習フラグFLAGをFLA
G=0に初期設定する。
【0219】その後、ステップS4で初期学習モードに
切換え、ステップS5でm番目(初回はm=0)の特徴
データを初期学習用特徴データメモリ300から読み出
して、この読み出した特徴データの認識を実行する。こ
の認識の実行は前記実施例2と同一の演算により行われ
る。
【0220】そして、その後は、ステップS6で前記認
識の結果が教師データと一致するか否かを判断し、一致
する場合には認識処理の学習の必要がなく、直ちにステ
ップS8に進むが、一致しない場合,即ち特徴データの
認識が困難な場合にはステップS7で教師データと一致
しなかった特徴データに対して、重みメモリ111の最
終層のニューロンの重みをHebbの学習則に従って更
新すると共に、学習フラグFLAGをFLAG=1に設
定する。
【0221】続いて、ステップS8では認識する特徴デ
ータが初期学習用特徴データメモリ300内の最後に位
置する特徴データか否かを判別し、最後の特徴データで
ない場合には、ステップS9でカウンタmに「1」を加
算して(m=m+1)、ステップS4に戻って次の特徴
データに対する認識を実行する。一方、最後に位置する
特徴データである場合には、ステップS10で学習フラ
グFLAGの値を判別し、FLAG=1の学習有りの場
合には、ステップS11でm=0,FLAG=0に戻し
てステップS4に戻り、再びm=0番目の特徴データか
ら認識実行及び必要な場合の学習を行う。一方、FLA
G=0の学習無しの場合には、全ての特徴データを良好
に認識し終えたと判断して、終了する。
【0222】次に、前記図29のフローチャートに示す
特徴データの認識処理の初期学習を行う回路の構成を図
27に基いて説明する。
【0223】同図において、300,301,302は
各層の初期学習用特徴データメモリ、303,304,
305は前記初期学習用特徴データメモリ300〜30
2と、これと対応する層の特徴データメモリ107〜1
09とを切換えるマルチプレクサである。制御回路11
5は前記各層のマルチプレクサ303〜305に対して
初期学習信号ILを出力し、該各マルチプレクサ303
〜305は初期学習信号ILを受けて初期学習用特徴デ
ータメモリ300〜302を選択する。
【0224】また、アドレス発生器110は、内部に、
図30に示すように、トレーニングカウンタ320と、
3入力マルチプレクサより成る選択回路321とを別途
有する。前記トレーニングカウンタ320は、図27の
制御回路115から初期化信号(m=0)及びカウント
信号(m=m+1)を受けて、認識を実行した特徴デー
タの数mを計測する。前記選択回路321は、図27の
制御回路115から初期学習信号IL、学習制御信号
T、及び学習させる最終層のニューロンの番号Tpの信
号が出力されている場合にはその信号を受け、初期学習
信号ILの受信時に学習制御信号Tを受けた場合にはト
レーニングカウンタ320の出力qを選択し、初期学習
信号ILの非受信時に学習制御信号Tを受けた場合に
は、学習させる最終層のニューロンの番号Tpの信号を
選択し、前記以外の場合には出力層カウンタ124の出
力を選択するものである。
【0225】また、図27において、330は最大値ア
ドレス検出器であって、該検出器330は、累積演算器
113の演算結果である最終層のニューロンの出力値
と、アドレス発生器110からのその最終層のニューロ
ンのアドレスpとを順次受けて、その受けた各出力値の
うち最大値のニューロンのアドレスを検出するものであ
る。更に、331は比較器であって、該比較器331
は、前記最大値アドレス検出器330で検出された出力
値が最大のニューロンのアドレスと、教師データとして
トレーニングカウンタ320の出力qとを受けて、この
両者が一致するとき一致信号を、不一致のとき不一致信
号を制御回路115に出力するものである。制御回路1
15は、前記不一致信号を受信した場合に、初期学習用
特徴データメモリ300に記憶された全ての特徴データ
の認識実行が終了すると、再び第1番目(m=0)の特
徴データから順次認識実行及び必要な学習を開始する。
【0226】したがって、前記実施例においては、特徴
データの認識処理の初期学習を行う際には、制御回路1
15から初期学習信号ILが出力されて、マルチプレク
サ303〜305により初期学習用特徴データメモリ3
00〜302が選択され、該初期学習用特徴データメモ
リ300に記憶された複数の特徴データがトレーニング
カウンタ320のカウンタ値qに従って第1番目(m=
0)から順次認識実行される。そして、各特徴データの
認識時において、最終層のニューロンのうち最大値の出
力となったニューロンのアドレスがトレーニングカウン
タ321の出力値qと一致しない場合には、Hebbの
学習による最終層の重みの更新が行われ、少くとも1個
の初期学習用特徴データに対して学習が行われたときに
は、再度第1番目の初期学習用特徴データからその認識
を実行することが繰返され、学習なしに全ての特徴デー
タの認識の実行が終了すれば、初期学習が完了する。
尚、この認識の実行及び重みの学習の説明は前記実施例
3で詳細に行ったので、ここでは省略する。
【0227】ここに、複数個の初期学習用の特徴データ
は、その全ての特徴データの認識処理に対する初期学習
が終了するまでに複数回,例えば各特徴データ毎に10
回程度繰返し参照されるものの、この複数個の特徴デー
タは予め初期学習用特徴データメモリ300に記憶され
ているので、その初期学習用の同一の特徴データを参照
毎に外部から逐一ロードして読込む必要がなく、複数個
の特徴データの初期学習を高速に行うことが可能にな
る。
【0228】
【発明の効果】以上説明したように、請求項1記載の発
明によれば、量子化ニューロンを用いたニューラルネッ
トワーク回路において、結合係数に値のあるネットのみ
の演算を行ったので、演算処理を高速化して、画像認識
等の処理速度の向上を図ることができる。
【0229】また、請求項2及び請求項3記載の発明に
よれば、前記請求項1記載の発明の効果に加えて、多層
のニューラルネットワーク回路において、その各層にお
ける量子化ニューロンの結合係数を記憶する係数メモリ
を各層当り1個設けることにより、ハードウェアの小規
模化が可能になるので、回路規模を減少させることがで
きる。
【0230】更に、請求項4記載の発明によれば、入力
された特徴データに基いて重みメモリから読み出される
最終層のニューロンの重みを、重み更新器を用いてより
重く更新したので、特徴データを学習して、特徴データ
の認識率の向上を図ることができる。
【0231】加えて、請求項5記載の発明によれば、最
終層のニューロンの重りの更新をニューロンの発火量に
応じて行ったので、ネットワークの反応の強弱によって
重みを適切に更新でき、特徴データの認識率を短期間で
向上させることができる効果を奏する。
【0232】さらにまた、請求項6記載の発明によれ
ば、最終層のニューロンの重りの更新に際して該重みが
オーバーフローする場合には、最終層の各ニューロンの
全ての重みの値を同率の割合で減じたので、重みのオー
バーフローを招かずに全ての重みを適切に更新でき、小
回路規模のハードウェアで効率良く特徴データの認識率
を向上できる。
【0233】また、請求項7記載の発明によれば、特徴
データをルックアップテーブルにより非線形変換した後
に特徴データメモリに記憶したので、元の特徴データに
画像間の差が出にくい場合であっても、画像認識率の向
上を図ることができる。
【0234】更に、請求項8記載の発明によれば、最も
高い結合係数周りの結合係数に対してのみ演算を実行す
るようにしたので、例えば画素の右端が、その画素の右
隣りに位置する画素の右端と連続するような演算を防止
して、特徴データを精度良く認識することができる。
【0235】加えて、請求項9記載の発明によれば、量
子化ニューロンを用いた多層ニューラルネットワーク回
路において、各層に入力すべき特徴データを量子化変換
する場合に、各層の量子化ニューロン別に異なる複数の
量子化変換用の閾値を記憶しておき、入力された特徴デ
ータをこの閾値と比較して特徴データを量子化変換した
ので、各層の量子化ニューロン毎に量子化変換メモリを
持つことを不要にし、小さい回路規模のハードウェアで
もってニューラルネットワーク回路を構成しつつ、各層
の量子化ニューロン別に量子化変換メモリを持ったに等
しい構成にできて、画像認識率の向上を図ることができ
る。
【0236】また、請求項10記載の発明によれば、初
期学習用の特徴データを予め初期学習用特徴データメモ
リに記憶しておき、初期学習時にはこの記憶しておいた
特徴データを繰返し参照して特徴データの認識及びその
認識処理の学習を実行したので、同一の特徴データを参
照毎に繰返し外部からメモリに読込む必要をなくすこと
ができ、その分、初期学習の高速化を図ることができ、
初期学習を短時間で終えることができる。
【図面の簡単な説明】
【図1】請求項2記載の発明の実施例におけるニューラ
ルネットワーク回路の構成図である。
【図2】請求項2記載の発明の実施例におけるファンク
ションテーブルの構成図である。
【図3】請求項2記載の発明の実施例におけるアドレス
発生器のタイミングチャート図である。
【図4】請求項3記載の発明の実施例におけるニューラ
ルネットワーク回路の構成図である。
【図5】請求項3記載の発明の実施例におけるアドレス
発生器の構成図である。
【図6】請求項3記載の発明の実施例におけるアドレス
発生器及びアドレス変換器の出力タイミングチャート図
である。
【図7】請求項4記載の発明の実施例における認識およ
び学習可能なニューラルネットワーク回路の構成図であ
る。
【図8】請求項4記載の発明の実施例におけるアドレス
発生器の構成図である。
【図9】請求項5記載の発明の実施例における認識およ
び学習可能なニューラルネットワーク回路の構成図であ
る。
【図10】請求項5記載の発明の実施例における重み更
新器の構成図である。
【図11】請求項6記載の発明の実施例における認識お
よび学習可能なニューラルネットワーク回路の構成図で
ある。
【図12】請求項6記載の発明の実施例における重み更
新器の構成図である。
【図13】請求項6記載の発明の実施例における重みの
更新順序を示すフローチャート図である。
【図14】請求項7記載の発明の実施例における認識お
よび学習可能なニューラルネットワーク回路の構成図で
ある。
【図15】請求項8記載の発明の実施例における認識お
よび学習可能なニューラルネットワーク回路の構成図で
ある。
【図16】請求項9記載の発明の実施例におけるニュー
ラルネットワーク回路の一部の構成図である。
【図17】請求項9記載の発明の実施例におけるニュー
ラルネットワーク回路の他部の構成図である。
【図18】量子化変換テーブルを記憶した量子化変換メ
モリを各層1個づつ配置する場合のニューラルネットワ
ーク回路の構成図である。
【図19】請求項9記載の発明の実施例におけるニュー
ラルネットワーク回路の各部の波形図である。
【図20】請求項9記載の発明の実施例における量子化
変換閾値メモリの内容を示す説明図である。
【図21】量子化ニューロンによる多層ニューラルネッ
トワーク回路の構造の説明図である。
【図22】量子化ニューロンの説明図である。
【図23】量子化ニューロンの結合係数の説明図であ
る。
【図24】(1−β)の関数の説明図である。
【図25】量子化ニューロンによるニューラルネットワ
ークの最終層のニューロンの説明図である。
【図26】量子化ニューロンの結合係数の説明図であ
る。
【図27】請求項10記載の発明の実施例における認識
及び学習可能なニューラルネットワーク回路の構成図で
ある。
【図28】初期学習用特徴データを示す図である。
【図29】初期学習の流れを示すフロー図である。
【図30】請求項10記載の発明の実施例におけるアド
レス発生器の構成図である。
【符号の説明】
15、101〜103 係数メモリ 104〜106、144〜146 アドレス変換器 107〜109、137〜139 特徴データメモリ 12〜14、112 テーブルメモリ 113 累積加算器 16、118、111 重みメモリ 115、117、136 制御回路 11、110、119 アドレス発生器 116、126、131 重み更新器 120 第一層カウンタ 121 第二層カウンタ 122 第三層カウンタ 123 特徴データカウンタ 124 出力層カウンタ 125、134 選択回路 127 シフタ 128、132 加算器 133 1/2回路 141〜143 ルックアップテーブ
ル 147〜149 マルチブレクサ 17 積和演算器 154〜156、211 マルチプレクサ 161〜163 量子化変換メモリ 201〜203 量子化変換器 214 出力マルチプレクサ 213 加算器 216 アドレスレジスタ 219 量子化変換閾値メモ
リ 212 シフタ 217 アンド 218 比較器 220 演算制御回路 221 変換制御回路 300 初期学習用特徴デー
タメモリ 320 トレーニングカウン
タ 321 選択回路 330 最大値アドレス検出
器 331 比較器
フロントページの続き (72)発明者 丸野 進 大阪府門真市大字門真1006番地 松下電 器産業株式会社内 (56)参考文献 電子情報通信学会技術研究報告 Vo l.93 No.233 17.09.1993 P 39−46 中平博幸 他「量子化ニューロ ンを用いたディジタルニューロプロセッ サ」 National Technica l Report 第42巻 第6号(平 成8年12月)p736−742 中平博幸 他 「適応増殖量子化ニューロチップ」 (58)調査した分野(Int.Cl.7,DB名) G06N 3/00 550 G06G 7/60 G06T 1/40 JICSTファイル(JOIS)

Claims (10)

    (57)【特許請求の範囲】
  1. 【請求項1】 与えられた特徴データをネットワークの
    演算の実行によって認識処理する多層のニューラルネッ
    トワーク回路であって、 入力された特徴データに基いてネットワークの中で結合
    係数が有効なネットのアドレスのみを出力するアドレス
    発生又は変換器と、該アドレス発生又は変換器のアドレ
    スに対応する各層間の結合係数を総合した総合結合係数
    を出力する係数メモリと、前記アドレス発生又は変換器
    のアドレスに対応する最終層のニューロンの重みを出力
    する重みメモリと、前記係数メモリから出力される総合
    結合係数及び重みメモリから出力される最終層のニュー
    ロンの重みとを累積加算する累積演算器とを有して、結
    合係数が有効なネットワークに対してのみ演算を実行す
    ることを特徴とするニューラルネットワーク回路。
  2. 【請求項2】 与えられた特徴データをネットワークの
    演算の実行によって認識処理する多層のニューラルネッ
    トワーク回路であって、 前記特徴データにより変化する各層間のニューロンの結
    合係数、及び該各層間の結合係数に関するデータを記憶
    し、入力される特徴データに対応する結合係数に関する
    データを読み出す各層のテーブルメモリと、該テーブル
    メモリから読み出されたデータによりネットワークの中
    で結合係数が有効なネットのアドレスのみを出力し、該
    アドレスにより前記テーブルメモリから対応する結合係
    数を読み出すアドレス発生器と、最終層以外の各層間の
    ニューロンの結合係数を総合した総合結合係数を記憶
    し、前記アドレス発生器のアドレスにより前記テーブル
    メモリから読み出した各層の結合係数をアドレスとし
    て、該アドレスに対応する総合結合係数を出力する係数
    メモリと、最終層のニューロンに対する重みを記憶し、
    前記アドレス発生器のアドレス及び前記テーブルメモリ
    に入力される特徴データのアドレスをアドレスとし、該
    両アドレスに対応する最終層のニューロンの重みを出力
    する重みメモリと、前記係数メモリの出力と重みメモリ
    の出力とを累積加算する累積演算器とを有して、結合係
    数が有効なネットワークに対してのみ演算を実行するこ
    とを特徴とするニューラルネットワーク回路。
  3. 【請求項3】 与えられた特徴データをネットワークの
    演算の実行によって認識処理する多層のニューラルネッ
    トワーク回路であって、 計算すべきネットワークの回数を出力する制御回路と、
    該制御回路の出力により計算すべきネットワークの回数
    を順次カウントするアドレス発生器と、特徴データを記
    憶し、前記アドレス発生器のカウントに従って順次特徴
    データを読み出す特徴データメモリと、最終層のニュー
    ロンの重みを記憶する重みメモリと、最終層以外の各層
    のニューロンの結合係数を記憶する各層の係数メモリ
    と、前記アドレス発生器の出力、前記特徴データメモリ
    の出力、及び前記制御回路の出力に基いてネットワーク
    の中で結合係数が有効なネットのアドレスのみを演算
    し、該アドレスを前記係数メモリに与えると共に、前記
    重みメモリに与えるアドレスを演算して出力するアドレ
    ス変換器と、該アドレス変換器から出力されるアドレス
    に対応して前記各層の係数メモリから読み出された各層
    の結合係数をアドレスとし、該アドレスに対応する各層
    の結合係数を掛け合せた総合結合係数を出力するテーブ
    ルメモリと、該テーブルメモリの出力と前記重みメモリ
    の出力を累積加算する累積演算器と、前記アドレス発生
    器から出力されたアドレスに前記累積演算器の結果を保
    持する出力メモリとを有し、結合係数が有効なネットワ
    ークに対してのみ演算を実行することを特徴とするニュ
    ーラルネットワーク回路。
  4. 【請求項4】 重みメモリから出力される最終層のニュ
    ーロンの重みを入力し、該重みに、予め定めた設定更新
    値を与える重み更新器を有し、最終層のニューロンの重
    みを更新することにより特徴データの認識処理を学習す
    ることを特徴とする請求項3記載のニューラルネットワ
    ーク回路。
  5. 【請求項5】 テーブルメモリから出力される総合結合
    係数を入力とし、該総合結合係数に応じた更新値を出力
    するシフタと、該シフタから出力される更新値及び重み
    メモリから出力される最終層のニューロンの重みとを入
    力し、該重みに更新値を加算して、該重みを更新する重
    み更新器とを有し、最終層のニューロンの重みの更新を
    ニューロンの発火量に応じた値を用いて行って、特徴デ
    ータの認識処理を学習することを特徴とする請求項3記
    載のニューラルネットワーク回路。
  6. 【請求項6】 重みメモリから出力される最終層のニュ
    ーロンの重みの値に対して該重みを更新した新たな重み
    の値を仮り決定し、該更新した新たな最終層のニューロ
    ンの重みの値がオーバーフローする場合には、前記重み
    メモリに記憶されている全ての重みの値を同率の割合で
    減じる重み更新器を有し、最終層の重みの値がオーバー
    フローしないように最終層のニューロンの重みを更新し
    て学習することを特徴とする請求項3記載のニューラル
    ネットワーク回路。
  7. 【請求項7】 特徴データをアドレスとし、該特徴デー
    タを非線形変換して特徴データメモリに記憶させるルッ
    クアップテーブルを有し、特徴データメモリに入力する
    特徴データを予め非線形変換することを特徴とする請求
    項3記載のニューラルネットワーク回路。
  8. 【請求項8】 アドレス変換器は制御信号を出力し、該
    制御信号の内容を、有効な結合係数のアドレスが最も大
    きい結合係数を持つアドレスに対して連続しないときと
    連続するときとで変更するものであり、該アドレス変換
    器の制御信号を受け、有効な結合係数のアドレスが最も
    大きい結合係数を持つアドレスに対して連続しないとき
    “0”を出力し、有効な結合係数のアドレスが最も大き
    い結合係数を持つアドレスに対して連続するとき係数メ
    モリからの結合係数を出力するよう選択するマルチプレ
    クサを有し、テーブルメモリは前記マルチプレクサの出
    力を入力とするものであることを特徴とする請求項3記
    載のニューラルネットワーク回路。
  9. 【請求項9】 複数の特徴データを量子化する量子化変
    換回路を有し、該量子化変換回路は、特徴データ毎に量
    子化変換の閾値を複数保持する量子化変換閾値メモリ
    と、与えられた特徴データを前記量子化変換閾値メモリ
    から読み出された閾値と比較する比較器と、該比較器の
    出力に基いて次に比較すべき量子化変換閾値メモリの閾
    値のアドレスを計算する加算器と、該加算器の出力を保
    持して前記量子化変換閾値メモリにアドレスを与えるレ
    ジスタと、該レジスタの入力と出力とを入力とし、前記
    比較器の比較結果に基いてレジスタの入力と出力との何
    れか一方を出力とし、該出力を量子化変換結果とする2
    入力マルチプレクサとで構成されていて、特徴データメ
    モリは、前記量子化変換器により量子化された特徴デー
    タを記憶し、与えられた特徴データのそれぞれを異なる
    閾値を用いて量子化変換することを特徴とする請求項3
    記載のニューラルネットワーク回路。
  10. 【請求項10】 初期学習用として複数の特徴データが
    予め記憶された初期学習用特徴データメモリと、教師デ
    ータが入力され、上記初期学習用特徴データメモリから
    読み出された特徴データの認識結果を教師データと比較
    する比較器と、重みメモリから出力される最終層のニュ
    ーロンの重みを入力し、該重みを前記比較器の比較結果
    に基いて更新する重み更新器とを備えて、最終層のニュ
    ーロンの重みを更新することによる特徴データの認識処
    理の学習を、予め、初期学習用特徴データメモリに記憶
    された複数の特徴データを参照して行うことを特徴とす
    る請求項3記載のニューラルネットワーク回路。
JP24287892A 1991-09-18 1992-09-11 ニューラルネットワーク回路 Expired - Fee Related JP3172278B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP24287892A JP3172278B2 (ja) 1991-09-18 1992-09-11 ニューラルネットワーク回路
EP19920116019 EP0533193A3 (en) 1991-09-18 1992-09-18 Neural network circuit
US08/409,949 US5636327A (en) 1991-09-18 1995-03-23 Neural network circuit

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
JP23767491 1991-09-18
JP23767591 1991-09-18
JP3-237675 1992-06-10
JP15092192 1992-06-10
JP3-237674 1992-06-10
JP4-150921 1992-06-10
JP24287892A JP3172278B2 (ja) 1991-09-18 1992-09-11 ニューラルネットワーク回路

Publications (2)

Publication Number Publication Date
JPH0660051A JPH0660051A (ja) 1994-03-04
JP3172278B2 true JP3172278B2 (ja) 2001-06-04

Family

ID=27473053

Family Applications (1)

Application Number Title Priority Date Filing Date
JP24287892A Expired - Fee Related JP3172278B2 (ja) 1991-09-18 1992-09-11 ニューラルネットワーク回路

Country Status (2)

Country Link
EP (1) EP0533193A3 (ja)
JP (1) JP3172278B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7991719B2 (en) 2004-06-03 2011-08-02 Canon Kabushiki Kaisha Information processing method and apparatus, and image pickup device

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5621862A (en) * 1993-07-29 1997-04-15 Matsushita Electric Industrial Co., Ltd. Information processing apparatus for implementing neural network
EP0814636A1 (de) * 1996-06-21 1997-12-29 Siemens Audiologische Technik GmbH Hörgerät
JP4620943B2 (ja) 2003-10-16 2011-01-26 キヤノン株式会社 積和演算回路及びその方法
JP5584914B2 (ja) * 2010-07-15 2014-09-10 株式会社日立製作所 分散計算システム
WO2017149722A1 (ja) * 2016-03-03 2017-09-08 三菱電機株式会社 演算装置および演算方法
KR102727052B1 (ko) * 2017-10-23 2024-11-06 삼성전자주식회사 뉴럴 네트워크에서 파라미터를 처리하는 방법 및 장치
JP6986503B2 (ja) * 2018-09-10 2021-12-22 日立Astemo株式会社 電子制御装置、ニューラルネットワーク更新システム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
National Technical Report 第42巻 第6号(平成8年12月)p736−742 中平博幸 他「適応増殖量子化ニューロチップ」
電子情報通信学会技術研究報告 Vol.93 No.233 17.09.1993 P39−46 中平博幸 他「量子化ニューロンを用いたディジタルニューロプロセッサ」

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7991719B2 (en) 2004-06-03 2011-08-02 Canon Kabushiki Kaisha Information processing method and apparatus, and image pickup device

Also Published As

Publication number Publication date
EP0533193A3 (en) 1993-04-28
JPH0660051A (ja) 1994-03-04
EP0533193A2 (en) 1993-03-24

Similar Documents

Publication Publication Date Title
US4994982A (en) Neural network system and circuit for use therein
JP4620943B2 (ja) 積和演算回路及びその方法
JPH07248841A (ja) 非線形関数発生装置およびフォーマット変換装置
Jokar et al. An efficient uniform-segmented neuron model for large-scale neuromorphic circuit design: Simulation and FPGA synthesis results
JP3172278B2 (ja) ニューラルネットワーク回路
JPH0258157A (ja) 人工ニユーロン回路網アーキテクチユア
JP3172352B2 (ja) ニューラルネットワーク回路
US5636327A (en) Neural network circuit
EP0475732A2 (en) Asynchronous control system for a neuro computer
US5845051A (en) Learning method for multilayer perceptron neural network with N-bit data representation
Robinson et al. Dynamic reinforcement driven error propagation networks with application to game playing
US5621862A (en) Information processing apparatus for implementing neural network
CN110956669A (zh) 一种图像压缩编码方法及系统
KR100442434B1 (ko) 학습된 신경망 설계를 위한 어레이 구조 연산 방법
US5485548A (en) Signal processing apparatus using a hierarchical neural network
GB2236608A (en) Digital neural networks
JPH1055346A (ja) ニューラルネットワーク回路
KR20210137663A (ko) 스파이킹 신경망 학습 장치 및 방법
JP3082530B2 (ja) ニューラルネットワーク回路
JP3463890B2 (ja) 神経回路模倣素子
JP3523325B2 (ja) ニューラルネットワーク及びこれを用いた信号処理装置、自律システム、自律型ロボット並びに移動システム
JP2549454B2 (ja) 神経細胞模倣回路網及び神経細胞模倣ユニット
JPH08123777A (ja) 神経回路模倣素子
Basso A massively parallel implementation of autoassociative neural networks for image compression
RU2045778C1 (ru) Устройство для моделирования нейронных сетей

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20010306

LAPS Cancellation because of no payment of annual fees