JPH04237364A - Neuro computer - Google Patents
Neuro computerInfo
- Publication number
- JPH04237364A JPH04237364A JP3020574A JP2057491A JPH04237364A JP H04237364 A JPH04237364 A JP H04237364A JP 3020574 A JP3020574 A JP 3020574A JP 2057491 A JP2057491 A JP 2057491A JP H04237364 A JPH04237364 A JP H04237364A
- Authority
- JP
- Japan
- Prior art keywords
- weight
- neurocomputer
- neuron
- coefficient
- weight data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Complex Calculations (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。(57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.
Description
【0001】0001
【産業上の利用分野】本発明は,複数の入力信号にそれ
ぞれ対応する重みを乗じ,それらの総和をとった後に,
非線型関数により変換した信号を出力する複数のニュー
ロンを組み合わせたニューラルネットワークにより,デ
ータ処理を行うニューロコンピュータに関する。[Industrial Application Field] The present invention multiplies a plurality of input signals by their corresponding weights, sums them, and then calculates the
This field relates to a neurocomputer that processes data using a neural network that combines multiple neurons that output signals converted by nonlinear functions.
【0002】各入力信号に乗ずる重みは,ニューラルネ
ットワークの構造や規模,扱うデータに依存して,種々
の値をとり得るので,全体として一定の精度を保とうと
するとハードウェア量が増加する。ハードウェア量の増
加を少なくして重みに関する演算の精度を向上させる技
術が必要とされる。The weight applied to each input signal can take various values depending on the structure and scale of the neural network and the data being handled, so the amount of hardware increases if a certain level of accuracy is to be maintained as a whole. There is a need for a technique that reduces the increase in the amount of hardware and improves the accuracy of calculations related to weights.
【0003】0003
【従来の技術】従来のニューロコンピュータは,汎用計
算機上でソフトウェアシミュレーションを行うものが多
かった。そのため,重みを浮動小数点表示で扱うことが
でき,重みのとり得る値の範囲は十分広く,その制限を
気にする必要はなかった。しかし,ニューロコンピュー
タをハードウェアで実現する場合,重みを浮動小数点表
示で表現しようとすると,重みの記憶や演算のためのハ
ードウェアが大きくなり,ニューロコンピュータをハー
ドウェア化する目的の一つである小型化が困難になる。
そのため,重みは,固定小数点表示で記憶するか,アナ
ログ値として記憶することが必要になる。[Prior Art] Many conventional neurocomputers perform software simulations on general-purpose computers. Therefore, weights can be represented as floating point numbers, and the range of possible values for weights is wide enough that there is no need to worry about restrictions. However, when implementing a neurocomputer in hardware, expressing the weights in floating point numbers requires a large amount of hardware to store and calculate the weights, which is one of the purposes of implementing a neurocomputer in hardware. It becomes difficult to downsize. Therefore, it is necessary to store the weights in fixed-point representation or as analog values.
【0004】0004
【発明が解決しようとする課題】しかし,従来技術では
,重みを固定小数点表示またはアナログ値として記憶し
た場合に,精度を一定に保つと重みの取り得る範囲は制
限されてしまう。逆に,重みの取り得る値の範囲を広げ
ると,精度が落ちてしまうという問題がある。本発明は
上記問題点の解決を図り,ハードウェアをあまり大きく
せずに,ニューロコンピュータの演算精度を向上させる
ことを目的としている。However, in the prior art, when the weights are stored as fixed-point representations or analog values, the possible range of the weights is limited if the precision is kept constant. Conversely, if the range of possible values for weights is widened, there is a problem in that accuracy decreases. The present invention aims to solve the above-mentioned problems and to improve the calculation accuracy of a neurocomputer without increasing the hardware size too much.
【0005】[0005]
【課題を解決するための手段】図1は,本発明の原理説
明図である。図1の(イ)に示すように,ニューロン1
0は,入力端子または前段のニューロン10から入力信
号を受け,重みメモリ11にあらかじめ記憶されている
重みに応じた演算を行い,結果を出力する。本発明では
,各ニューロン10は,図1の(ロ)に示すように構成
される。[Means for Solving the Problems] FIG. 1 is a diagram illustrating the principle of the present invention. As shown in Figure 1 (a), neuron 1
0 receives an input signal from the input terminal or the neuron 10 at the previous stage, performs calculations according to the weights stored in advance in the weight memory 11, and outputs the results. In the present invention, each neuron 10 is configured as shown in (b) of FIG.
【0006】図1の(ロ)において,x1 ,x2 ,
…,xn は前段のニューロンからの入力信号,W1
,W2 ,…,Wn は各入力信号に乗ずる重み,kは
ある係数,f( ) はシグモイド関数などの非線型関
数を表す。また,12は積和計算部,13は係数乗算部
,14は非線型変換部を表す。In (b) of FIG. 1, x1, x2,
..., xn is the input signal from the previous stage neuron, W1
, W2,..., Wn are weights to be multiplied by each input signal, k is a certain coefficient, and f( ) represents a nonlinear function such as a sigmoid function. Further, 12 represents a product-sum calculation section, 13 represents a coefficient multiplication section, and 14 represents a nonlinear transformation section.
【0007】各入力信号x1 〜xn に乗ずる重みは
,重みメモリ11から与えられる。積和計算部12は,
各入力信号x1 〜xn に,それぞれ対応する重みW
1 〜Wn を掛け,その総和を計算する。係数乗算部
13は,積和計算部12の出力に,あらかじめニューロ
ン10ごとに定められた係数kを乗算する。Weights to be multiplied by each input signal x1 to xn are given from a weight memory 11. The sum of products calculation unit 12 is
Weight W corresponding to each input signal x1 to xn
Multiply by 1 to Wn and calculate the sum. The coefficient multiplier 13 multiplies the output of the sum-of-products calculator 12 by a coefficient k predetermined for each neuron 10.
【0008】非線型変換部14は,係数乗算部13の乗
算結果について,シグモイド関数fなどの非線型関数に
より変換を行い,その変換結果を出力する。ニューロン
10の出力は,f(kΣWj xj )となる(ただし
,Σはj=1からnまでの総和を表す)。The nonlinear transformation section 14 transforms the multiplication result of the coefficient multiplication section 13 using a nonlinear function such as a sigmoid function f, and outputs the transformation result. The output of the neuron 10 is f(kΣWj xj ) (where Σ represents the sum of j=1 to n).
【0009】係数kは,学習により決定した各ニューロ
ン10の入力に対する重みに応じてあらかじめ定められ
る値であり,例えばそのニューロン10に対する重みデ
ータの中で最も絶対値の大きいものの値である。重みメ
モリ11に記憶する重みは,学習時に決定した重みデー
タを係数kで正規化したものとする。The coefficient k is a value determined in advance according to the weight for the input of each neuron 10 determined by learning, and is, for example, the value of the largest absolute value among the weight data for that neuron 10. The weights stored in the weight memory 11 are obtained by normalizing the weight data determined during learning by a coefficient k.
【0010】または,あらかじめいくつかの係数を用意
しておき,そのニューロン10に対する重みデータの中
で,最も絶対値の大きいものより大きく,最もその値に
近いものを,係数kの値として選択して用いてもよい。Alternatively, some coefficients are prepared in advance, and among the weight data for the neuron 10, the one that is larger than the one with the largest absolute value and closest to that value is selected as the value of the coefficient k. It may also be used.
【0011】この係数kは,重みメモリ11と同様にニ
ューロン10の外部メモリに記憶させて,初期化時また
は積和演算後に各ニューロン10に与える。または,あ
らかじめ各ニューロン10に固定化させて記憶させてお
くようにする。Similar to the weight memory 11, this coefficient k is stored in an external memory of the neuron 10 and given to each neuron 10 at the time of initialization or after the product-sum operation. Alternatively, it may be fixed and stored in each neuron 10 in advance.
【0012】重みメモリ11には,係数kにより正規化
した重みデータを固定小数点表示のデジタル値として記
憶させ,演算前または演算時に該当するニューロン10
に与える。重みデータをアナログ値として記憶させ,積
和計算部12においてアナログ値で入力に対する乗算を
行うようにしてもよい。Weight data normalized by the coefficient k is stored in the weight memory 11 as a digital value in a fixed-point representation, and the weight data is stored in the corresponding neuron 10 before or during the calculation.
give to The weight data may be stored as an analog value, and the sum-of-products calculation unit 12 may multiply the input by the analog value.
【0013】[0013]
【作用】ニューロン10において,積和計算部12によ
り積和をとった後,非線型変換部14により非線型関数
で変換する前に,ある係数kを乗ずる係数乗算部13を
設ける。[Operation] In the neuron 10, a coefficient multiplier 13 is provided which multiplies the sum of products by a certain coefficient k after the sum of products is calculated by the sum-of-products calculation unit 12 and before the nonlinear conversion unit 14 performs transformation using a nonlinear function.
【0014】例えば,重みの絶対値が1以下に制限され
ている場合,そのニューロン10に対する重みデータの
中で最も大きなものを係数kとすると,重みデータは,
その数で正規化することができる。こうすれば,最も絶
対値の大きな重みは精度を最大限利用できる。このニュ
ーロン10に対する他の重みデータも,絶対値があまり
違わなければ精度が落ちることはない。For example, if the absolute value of the weight is limited to 1 or less, and if the largest value among the weight data for the neuron 10 is the coefficient k, then the weight data is
You can normalize with that number. In this way, the weight with the largest absolute value can make maximum use of the accuracy. The accuracy of other weight data for this neuron 10 will not deteriorate as long as the absolute values do not differ much.
【0015】重みデータの中で最も大きいものを係数と
する代わりに,いくつかの係数をあらかじめ用意してお
き,その中で重みデータの最大のものより大きく,最も
その値に近いものを,係数kの値として選択してもよい
。重みデータをその係数kで正規化し,正規化した重み
データを重みメモリ11に記憶させる。Instead of using the largest weight data as a coefficient, several coefficients are prepared in advance, and the one that is larger than the largest weight data and closest to it is used as a coefficient. It may be selected as the value of k. The weight data is normalized by the coefficient k, and the normalized weight data is stored in the weight memory 11.
【0016】これは最も絶対値の大きな重みにとっては
,浮動小数点表示の一般化した方法と同等である。この
ニューロン10に対する他の重みデータも,最大のもの
と大きさがあまり違わなければ精度はあまり落ちない。This is equivalent to the generalized method of floating point representation for the weight with the largest absolute value. As long as the other weight data for this neuron 10 are not much different in size from the largest weight, the accuracy will not drop much.
【0017】[0017]
【実施例】図2は,本発明の一実施例システム構成図で
ある。図2において,20はニューラルネットワークを
制御する制御パターンを発生し入力の切り換えなどの全
体の制御を行うコントローラ,21は重みデータや係数
等を記憶する外部メモリ,22は外部からの入力を時分
割で共通のアナログバスに取り入れるための入力選択部
,23a,23bは図1に示すニューロン10に相当す
るアナログニューロプロセッサ(以下,ANPという)
を表す。Embodiment FIG. 2 is a system configuration diagram of an embodiment of the present invention. In FIG. 2, 20 is a controller that generates a control pattern to control the neural network and performs overall control such as switching inputs, 21 is an external memory that stores weight data, coefficients, etc., and 22 is a controller that time-divides external inputs. Input selection units 23a and 23b for input into a common analog bus are analog neuroprocessors (hereinafter referred to as ANP) corresponding to the neuron 10 shown in FIG.
represents.
【0018】図2に示すシステムでは,■高速処理が可
能,■回路規模を小さくできる,■センサなどの外部か
らの入力がアナログである,というような理由により,
アナログ値で入力信号を処理する構成になっている。重
みデータおよび係数は,16ビットのデジタル値である
。[0018] The system shown in Fig. 2 has the following reasons: ■ high-speed processing is possible, ■ circuit size can be reduced, and ■ external inputs such as sensors are analog.
It is configured to process input signals using analog values. The weight data and coefficients are 16-bit digital values.
【0019】ANP23aは中間層のニューロン,AN
P23bは出力層のニューロンで,階層ネットワークを
構成している。入力層は,変換処理が不要であるので,
プロセッサを用いていない。ANP23a,23bは,
アナログ信号をアナログバスより時分割入力し,積和演
算を行った後,ある係数を乗じ,シグモイド関数回路で
変換したアナログ信号をアナログバスに出力する。ANP23a is a neuron in the middle layer, AN
P23b is a neuron in the output layer and constitutes a hierarchical network. Since the input layer does not require conversion processing,
No processor is used. ANP23a, 23b are
Analog signals are time-divisionally input from the analog bus, and after a product-sum operation is performed, they are multiplied by a certain coefficient, and the analog signals converted by the sigmoid function circuit are output to the analog bus.
【0020】事前に外部メモリ21に各ANP23a,
23bに該当する係数および重みを記憶させておく。処
理を開始する場合,入力選択部22により入力の切り換
え制御を行うとともに,係数kとその各入力に対応する
重みデータを外部メモリ21から読み出し,各ANP2
3a,23bに供給する。また,各ANP23a,23
bに起動の制御信号を与える。Each ANP 23a,
23b stores the corresponding coefficients and weights. When starting processing, the input selection unit 22 controls input switching, reads the coefficient k and weight data corresponding to each input from the external memory 21, and selects each ANP2.
3a and 23b. In addition, each ANP23a, 23
A control signal for activation is given to b.
【0021】各ANP23a,23bは,例えば図3に
示すような構成になっている。図3は,本発明の一実施
例に係るアナログニューロプロセッサのブロック図であ
る。図3において,30はコンデンサなどの外部キャパ
シタ,31はアナログデータ処理ブロック,32は重み
データローディング処理ブロック,33は制御ブロック
,34は入力信号に重みを掛ける乗算型DA変換器,3
5は加算器,36は係数kを掛ける乗算型DA変換器,
37は非線型変換を行うシグモイド関数回路を表す。Each ANP 23a, 23b has a configuration as shown in FIG. 3, for example. FIG. 3 is a block diagram of an analog neuroprocessor according to an embodiment of the present invention. In FIG. 3, 30 is an external capacitor such as a capacitor, 31 is an analog data processing block, 32 is a weighted data loading processing block, 33 is a control block, 34 is a multiplication type DA converter that weights the input signal, 3
5 is an adder, 36 is a multiplication type DA converter that multiplies coefficient k,
37 represents a sigmoid function circuit that performs nonlinear transformation.
【0022】図3に示すANP23は例えばICチップ
で構成され,ニューロンのモデルをほぼそのままデジタ
ルアナログ混在回路で実現したものである。チップの内
部は大きく分けて,アナログデータ処理ブロック31,
重みデータローディング処理ブロック32およびチップ
全体を制御する制御ブロック33からなる。The ANP 23 shown in FIG. 3 is composed of, for example, an IC chip, and is a model of a neuron realized almost directly using a digital-analog mixed circuit. The inside of the chip can be roughly divided into analog data processing blocks 31,
It consists of a weight data loading processing block 32 and a control block 33 that controls the entire chip.
【0023】重みは,汎用計算機によるソフトウェアシ
ミュレータによって学習を行い,決定する。そして,図
2に示す外部メモリ21に16ビットの固定小数点デー
タで書き込んでおく。[0023] The weights are determined by learning by a software simulator using a general-purpose computer. Then, 16-bit fixed-point data is written into the external memory 21 shown in FIG. 2.
【0024】入力線からアナログ入力信号x1 が入っ
てくると,その入力に対応するデジタルの重みW1 が
ロードされる。これらが乗算型DA変換器34を通ると
,これらの積W1 x1 が出てくる。加算器35と外
部キャパシタ30とで積分器が構成されている。乗算型
DA変換器34の出力は,積分器の外部キャパシタ30
に電荷として蓄えられる。次に,入力信号x2 と重み
W2 とを入れて同様に処理する。これをxn ,Wn
まで繰り返す。
これにより,外部キャパシタ30に合計が蓄えられる。When the analog input signal x1 comes in from the input line, the digital weight W1 corresponding to that input is loaded. When these pass through the multiplication type DA converter 34, a product W1 x1 of these is obtained. The adder 35 and the external capacitor 30 constitute an integrator. The output of the multiplication type DA converter 34 is connected to the external capacitor 30 of the integrator.
is stored as an electric charge. Next, input signal x2 and weight W2 are input and processed in the same way. This is xn, Wn
Repeat until. This causes the total to be stored in the external capacitor 30.
【0025】積分器の出力電圧を出力すると,外部メモ
リから16ビットの固定小数点データで書き込まれた係
数kがロードされる。これらが乗算型DA変換器36を
通ると,これらの積が出てくる。これをシグモイド関数
回路37に入れて,非線型変換した電圧を出力する。こ
れらの一連の処理は,外部からの制御信号により,制御
ブロック33を通して制御される。重みデータローディ
ング処理ブロック32および制御ブロック33は,以上
の機能の説明から容易に構成できるので,その詳しい説
明は省略する。When the output voltage of the integrator is output, the coefficient k written as 16-bit fixed point data from the external memory is loaded. When these pass through the multiplication type DA converter 36, the product of these is obtained. This is input into a sigmoid function circuit 37, and a non-linearly converted voltage is output. These series of processes are controlled through the control block 33 by external control signals. Since the weight data loading processing block 32 and the control block 33 can be easily constructed from the above functional explanation, detailed explanation thereof will be omitted.
【0026】図4は,本発明の実施例に係る係数の設定
例を示す。図4の(イ)に示すニューロン10のモデル
は,4つの入力x1 〜x4 にそれぞれ重みW1 〜
W4 を掛けて演算するモデルである。この重みは,例
えば汎用計算機を用いたソフトウェアシミュレータによ
って,バックプロパゲーション学習法などの手法により
決定される。なお,同図におけるθは,前の説明では省
略したが閾値である。FIG. 4 shows an example of setting coefficients according to an embodiment of the present invention. The model of the neuron 10 shown in FIG. 4(A) has four inputs x1 to x4 with weights W1 to
This is a model that calculates by multiplying by W4. This weight is determined, for example, by a software simulator using a general-purpose computer, using a method such as a backpropagation learning method. Note that θ in the figure is a threshold value, although it was omitted in the previous explanation.
【0027】係数の決定は,図4の(ロ)に示す手順(
a) 〜(c) によって行う。
(a) ソフトウェアシミュレータによる学習によって
,重みW1 〜W4 を決定する。
(b) 最大の重み(この例では,W2 =+10.2
46)で各重みを割り,正規化する。
(c) この正規化に用いた値+10.246を係数k
として設定する。The coefficients are determined by the procedure shown in (b) of FIG.
Perform according to a) to (c). (a) The weights W1 to W4 are determined by learning using a software simulator. (b) Maximum weight (in this example, W2 = +10.2
Divide each weight by 46) and normalize it. (c) The value used for this normalization + 10.246 is the coefficient k
Set as .
【0028】図5は,アナログニューロプロセッサ(A
NP)についての他の実施例ブロック図を示している。
図5において,図3と同符号のものは図3に示すものに
対応する。50はあらかじめ決められたいくつかの係数
を記憶する係数記憶部を表す。FIG. 5 shows an analog neuroprocessor (A
NP) shows another embodiment block diagram. In FIG. 5, the same reference numerals as in FIG. 3 correspond to those shown in FIG. 50 represents a coefficient storage section that stores several predetermined coefficients.
【0029】前に説明した図3に示す実施例では,例え
ば図4に示すように,最大の重みの値を係数kの値とし
たが,図5に示す実施例では,係数をk1 ,k2 ,
…というようにいくつか用意しておく。そして,ソフト
ウェアシミュレータによる学習によって重みが決定した
ならば,最大の重みよりも大きく,最大の値に最も近い
ものを,係数k1 ,k2 ,…の中から選び,それを
乗算型DA変換器36による乗算に用いる係数とする。In the embodiment shown in FIG. 3 described above, the maximum weight value is the value of the coefficient k, as shown in FIG. 4, but in the embodiment shown in FIG. ,
Prepare some things like... Once the weights have been determined through learning by the software simulator, the one that is larger than the maximum weight and closest to the maximum value is selected from among the coefficients k1, k2,... This is the coefficient used for multiplication.
【0030】ANP23では,係数記憶部50に記憶さ
れた係数の中から,学習時に決定した係数を,制御信号
または重みデータのバスからの選択信号により選択し,
乗算型DA変換器36に供給する。他の処理については
,図3の例と同様である。The ANP 23 selects the coefficient determined during learning from among the coefficients stored in the coefficient storage unit 50 using a control signal or a selection signal from the weight data bus.
The signal is supplied to the multiplication type DA converter 36. Other processing is similar to the example in FIG. 3.
【0031】図6は,アナログニューロプロセッサ(A
NP)についての他の実施例ブロック図を示している。
図6において,図3と同符号のものは図3に示すものに
対応する。60はアナログ値とアナログ値とを乗算する
乗算器を表す。FIG. 6 shows an analog neuroprocessor (A
NP) shows another embodiment block diagram. In FIG. 6, the same reference numerals as in FIG. 3 correspond to those shown in FIG. 60 represents a multiplier that multiplies analog values by analog values.
【0032】この例では,重みをデジタル値として記憶
するのではなく,アナログ値で記憶する。係数kは16
ビットのデジタル値である。アナログの入力信号x1
,x2 ,…と,アナログ値による重みデータW1,W
2 ,…とを,乗算器60によって乗算すること以外は
,前述した図3に示す実施例と同様である。In this example, the weights are not stored as digital values, but as analog values. The coefficient k is 16
It is a digital value of bits. Analog input signal x1
, x2 , ... and weight data W1, W based on analog values
2, . . . are multiplied by the multiplier 60.
【0033】[0033]
【発明の効果】以上説明したように,本発明によれば,
重みを固定小数点表示で記憶するか,アナログ値として
記憶することにより,ハードウェアを小型化でき,かつ
精度をあまり落とさずに,重みの取り得る値の範囲を大
きくすることができるようなニューロコンピュータを実
現することができる。[Effect of the invention] As explained above, according to the present invention,
A neurocomputer that can miniaturize the hardware by storing weights in fixed-point representation or as analog values, and can widen the range of values that weights can take without significantly reducing accuracy. can be realized.
【図1】本発明の原理説明図である。FIG. 1 is a diagram explaining the principle of the present invention.
【図2】本発明の一実施例システム構成図である。FIG. 2 is a system configuration diagram of an embodiment of the present invention.
【図3】本発明に係るアナログニューロプロセッサの実
施例ブロック図である。FIG. 3 is a block diagram of an embodiment of an analog neuroprocessor according to the present invention.
【図4】本発明の実施例による係数の設定例を示す図で
ある。FIG. 4 is a diagram showing an example of setting coefficients according to an embodiment of the present invention.
【図5】本発明に係るアナログニューロプロセッサの実
施例ブロック図である。FIG. 5 is a block diagram of an embodiment of an analog neuroprocessor according to the present invention.
【図6】本発明に係るアナログニューロプロセッサの実
施例ブロック図である。FIG. 6 is a block diagram of an embodiment of an analog neuroprocessor according to the present invention.
10 ニューロン 11 重みメモリ 12 積和計算部 13 係数乗算部 14 非線型変換部 x1 〜xn 入力信号 W1 〜Wn 重み k 係数 f( ) 非線型関数 10 Neuron 11 Weight memory 12 Product sum calculation section 13 Coefficient multiplier 14 Nonlinear conversion section x1 ~ xn Input signal W1 ~ Wn Weight k coefficient f( ) Nonlinear function
Claims (5)
みを乗じ,それらの総和をとった後に,非線型関数によ
り変換した信号を出力する複数のニューロン(10)と
,それらのニューロン(10)に対する重みデータを記
憶する重みメモリ(11)とを有するニューロコンピュ
ータにおいて,前記ニューロン(10)は,入力信号に
それぞれ重みを乗じて総和をとる際に,または総和をと
った後,非線型関数により変換する前に,総和中または
総和後の信号に対して,学習時に決定した重みに関係し
てあらかじめ定められた係数を乗ずる手段(13)を備
えたことを特徴とするニューロコンピュータ。Claim 1: A plurality of neurons (10) that output a signal transformed by a nonlinear function after multiplying a plurality of input signals by weights corresponding to each one and calculating the sum thereof, and a plurality of neurons (10) for outputting signals transformed by a nonlinear function. In a neurocomputer having a weight memory (11) for storing weight data, the neuron (10) converts input signals by a nonlinear function when or after the sum is calculated by multiplying each input signal by a weight. 1. A neurocomputer characterized by comprising means (13) for multiplying a signal during or after summation by a predetermined coefficient in relation to a weight determined during learning.
において,前記係数を記憶するメモリを有し,そのメモ
リに設定された係数により,総和中または総和後の信号
に対する乗算を行うようにしたことを特徴とするニュー
ロコンピュータ。2. The neurocomputer according to claim 1, further comprising a memory for storing the coefficients, and multiplication of signals during or after the summation is performed by the coefficients set in the memory. Neurocomputer.
ロコンピュータにおいて,前記係数として,あらかじめ
複数の数値が用意され,その中から1つの係数が選択さ
れるようにしたことを特徴とするニューロコンピュータ
。3. The neurocomputer according to claim 1 or 2, wherein a plurality of numerical values are prepared in advance as the coefficients, and one coefficient is selected from among the numerical values. .
載のニューロコンピュータにおいて,前記重みメモリ(
11)に,重みデータを固定小数点表示のデジタル値と
して記憶し,前記各ニューロン(10)に対しデジタル
値で重みデータを与えることを特徴とするニューロコン
ピュータ。4. The neurocomputer according to claim 1, claim 2, or claim 3, wherein the weight memory (
11) A neurocomputer characterized in that weight data is stored as a digital value expressed in a fixed-point representation, and the weight data is provided as a digital value to each neuron (10).
載のニューロコンピュータにおいて,重みデータをアナ
ログ値として記憶し,前記各ニューロン(10)に対し
アナログ値で重みデータを与えることを特徴とするニュ
ーロコンピュータ。5. The neurocomputer according to claim 1, claim 2, or claim 3, wherein the weight data is stored as an analog value, and the weight data is given to each neuron (10) as an analog value. neurocomputer.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP3020574A JPH04237364A (en) | 1991-01-21 | 1991-01-21 | Neuro computer |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP3020574A JPH04237364A (en) | 1991-01-21 | 1991-01-21 | Neuro computer |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH04237364A true JPH04237364A (en) | 1992-08-25 |
Family
ID=12030972
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP3020574A Pending JPH04237364A (en) | 1991-01-21 | 1991-01-21 | Neuro computer |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH04237364A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07219919A (en) * | 1994-01-28 | 1995-08-18 | Mitsubishi Electric Corp | Numerical processing unit |
JPWO2020017362A1 (en) * | 2018-07-17 | 2021-08-05 | ソニーグループ株式会社 | Arithmetic logic unit, product-sum calculation device, product-sum calculation circuit, and product-sum calculation system |
JP2024086675A (en) * | 2022-12-16 | 2024-06-27 | Edgecortix株式会社 | Neural network hardware acceleration via sequentially connected computational modules |
-
1991
- 1991-01-21 JP JP3020574A patent/JPH04237364A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07219919A (en) * | 1994-01-28 | 1995-08-18 | Mitsubishi Electric Corp | Numerical processing unit |
JPWO2020017362A1 (en) * | 2018-07-17 | 2021-08-05 | ソニーグループ株式会社 | Arithmetic logic unit, product-sum calculation device, product-sum calculation circuit, and product-sum calculation system |
US11782680B2 (en) | 2018-07-17 | 2023-10-10 | Sony Group Corporation | Arithmetic logic unit, multiply-accumulate operation device, multiply-accumulate operation circuit, and multiply-accumulate operation system |
JP2024086675A (en) * | 2022-12-16 | 2024-06-27 | Edgecortix株式会社 | Neural network hardware acceleration via sequentially connected computational modules |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5519647A (en) | Apparatus for and method of generating an approximation function | |
US5740325A (en) | Computer system having a polynomial co-processor | |
US4994982A (en) | Neural network system and circuit for use therein | |
US5278945A (en) | Neural processor apparatus | |
EP0629969A1 (en) | Artificial neuron and method of using same | |
US5430830A (en) | Adaptive weight adjusting circuit for an neural network | |
JPH04291686A (en) | Artificial neurone | |
JPH0784975A (en) | Information processing apparatus and learning calculation processing method | |
US20220108150A1 (en) | Method and apparatus for processing data, and related products | |
US5671337A (en) | Neuron unit | |
JPH02193251A (en) | Error backward propagation and nerve network system | |
JP3461525B2 (en) | Neural processor including means for normalizing data | |
EP0384709A2 (en) | Learning Machine | |
US5581661A (en) | Artificial neuron using adder circuit and method of using same | |
JPH07191951A (en) | Neural network circuit | |
US5778153A (en) | Neural network utilizing logarithmic function and method of using same | |
JPH04237364A (en) | Neuro computer | |
US5311454A (en) | Digital multiplier-accumulator | |
Kuroe et al. | A learning method of nonlinear mappings by neural networks with considering their derivatives | |
Bochev | Distributed arithmetic implementation of artificial neural networks | |
JP3082530B2 (en) | Neural network circuit | |
JPH02201586A (en) | Combiner with neurochip | |
JPH07210542A (en) | Neuron circuit | |
KR20240135773A (en) | Repeated Hybrid Matrix Multiplier | |
JP2517662B2 (en) | Chain controller |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20000125 |