[go: up one dir, main page]

JPH04260160A - Neurocomputer - Google Patents

Neurocomputer

Info

Publication number
JPH04260160A
JPH04260160A JP3021846A JP2184691A JPH04260160A JP H04260160 A JPH04260160 A JP H04260160A JP 3021846 A JP3021846 A JP 3021846A JP 2184691 A JP2184691 A JP 2184691A JP H04260160 A JPH04260160 A JP H04260160A
Authority
JP
Japan
Prior art keywords
output
layer
neurons
neuron
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3021846A
Other languages
Japanese (ja)
Inventor
Masahiro Ooka
昌博 大岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuji Electric Co Ltd
Original Assignee
Fuji Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Electric Co Ltd filed Critical Fuji Electric Co Ltd
Priority to JP3021846A priority Critical patent/JPH04260160A/en
Publication of JPH04260160A publication Critical patent/JPH04260160A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PURPOSE:To shorten the learning time in the case of executing a new learning processing by adding a pattern to be learned and adding the number of input signals, in the neurocomputer. CONSTITUTION:At the time of leaning of a neuronetwork based on a back propagation algorithm, a convergence coefficient is determined as a function of a weight coefficient for taking such a value as the nearer to '1' an absolute value of a value of the weight coefficient between each neuron is, the nearer to '0' it is, and the nearer to '0' the above value is, the nearer to '1' it is. In such a state, for instance, even if the number of digits of an input bit pattern consisting of a binary number increases from first 3 digits, while the number of neurons of each layer of the network is being increased automatically in accordance with magnitude of the sum total of the absolute value of the weight coefficient between the neurons of each layer, additional learning is executed by only a new leaning pattern, and also, new learning is executed so as not to exert the influence on the network part learned already to the utmost.

Description

【発明の詳細な説明】[Detailed description of the invention]

【0001】0001

【産業上の利用分野】本発明は、神経細胞のネットワー
クによってパターン認識等の演算を実行するニューロコ
ンピュータのアーキテクチャに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to the architecture of a neurocomputer that executes operations such as pattern recognition using a network of neurons.

【0002】0002

【従来の技術】ニューロコンピュータは、従来のAI(
人工知能)の技法に基づくエキスパートシステム等にお
いて実現が困難であった、複数のセンサ出力をリアルタ
イムで認識して必要な制御を行うようなシステムを容易
に実現可能なコンピュータシステムである。ニューロコ
ンピュータは、神経細胞のネットワークを電子回路によ
って実現したシステムであり、学習によって自分自身が
入力に対して最適な出力が得られるように自律的にネッ
トワーク構造を変化させることができ、また、それ自身
のもつ汎化作用により、学習時に用いた基本的な入力パ
ターンの中間の入力パターンに対しても妥当な出力を与
えることができる等、優れた利点を有している。
[Prior Art] Neurocomputers are based on conventional AI (
This is a computer system that can easily realize a system that recognizes multiple sensor outputs in real time and performs the necessary control, which has been difficult to realize with expert systems based on techniques such as artificial intelligence. A neurocomputer is a system that realizes a network of neurons using electronic circuits. Through learning, a neurocomputer can autonomously change its network structure so as to obtain the optimal output for input. Due to its own generalization effect, it has excellent advantages such as being able to provide a valid output even for input patterns intermediate to the basic input pattern used during learning.

【0003】図7は、生理学で調べられているニューロ
ンの数学的モデルを示した図であり、このモデルによれ
ば入力信号yi(t) と出力信号x(t)の関係は次
式で表現できる。但し、括弧内の「t」は、それぞれが
時間の関数であることを示している。
FIG. 7 is a diagram showing a mathematical model of a neuron that has been studied in physiology. According to this model, the relationship between the input signal yi(t) and the output signal x(t) is expressed by the following equation. can. However, "t" in parentheses indicates that each is a function of time.

【0004】0004

【数1】[Math 1]

【0005】ここに、wi は重み係数、また非線形関
数fは、通常、図8に示すような特性を有する sig
moid関数が用いられる。sigmoid 関数とし
ては次式がよく用いられる。
Here, wi is a weighting coefficient, and the nonlinear function f usually has characteristics as shown in FIG.
A moid function is used. The following equation is often used as the sigmoid function.

【0006】[0006]

【数2】[Math 2]

【0007】xは、関数fの引数、eは自然対数の底を
示す。次に、上述のニューロンを構成要素として実現さ
れるニューロネットワークの代表例を図9に示す。
[0007] x is the argument of the function f, and e is the base of the natural logarithm. Next, FIG. 9 shows a typical example of a neural network realized using the above-mentioned neurons as constituent elements.

【0008】同図のネットワークは、それぞれ多数のニ
ューロン(各ニューロンは図7に対応する)を持つ入力
層、隠れ層I、II及び出力層(同図の各縦の列)から
成る。そして、或る層の全てのニューロンは、その左側
の層内の全てのニューロンと、また、その右側の層内の
全てのニューロンと、重み付きの有向リンクで結合して
いる。有向リンクの向きは左側の層内のニューロンを入
力とし、右側の層内のニューロンを出力としている。ニ
ューロンjからニューロンiに到るリンクの重みはwi
jで表現される。また、同じ層にあるニューロンは、相
互に結合しない。
The network in the figure consists of an input layer, each having a number of neurons (each neuron corresponds to FIG. 7), hidden layers I and II, and an output layer (in each vertical column in the figure). All neurons in a certain layer are connected to all neurons in the layer to the left thereof and to all neurons in the layer to the right thereof by weighted directed links. The direction of the directed link is such that the input is the neuron in the left layer, and the output is the neuron in the right layer. The weight of the link from neuron j to neuron i is wi
It is expressed as j. Also, neurons in the same layer do not connect to each other.

【0009】入力層の各ニューロンは、例えば対象物に
対する視覚情報や触覚情報を2次元の入力パターンとし
て表現した画像データの各画素と対応しており、各ニュ
ーロンには、階調表現された各画素の値に応じた刺激の
強さが与えられる。
Each neuron of the input layer corresponds to each pixel of image data representing, for example, visual information and tactile information regarding an object as a two-dimensional input pattern, and each neuron has each pixel of image data expressed as a two-dimensional input pattern. The strength of the stimulus is given according to the pixel value.

【0010】そして、最右の出力層の各ニューロンの出
力値が、ニューロネットワークの出力となる。即ち、例
えば、柔らかさを感じるニューロンからは入力パターン
を生成した対象物の柔らかさに対応する値が出力され、
大きさを感じるニューロンからは対象物の大きさに対応
する値が出力される。また、例えば形状を感じるニュー
ロンが、球、立法体等の各形状に対応して1つずつ設け
られ、対象物の形状に対応するニューロンの出力値が大
きな値となる。これらの各出力は、1組の入力パターン
について1組得られる。
[0010]The output value of each neuron in the rightmost output layer becomes the output of the neuronetwork. That is, for example, a neuron that senses softness outputs a value corresponding to the softness of the object that generated the input pattern,
Neurons that sense size output a value corresponding to the size of the object. Further, for example, one neuron that senses a shape is provided corresponding to each shape such as a sphere, a cube, etc., and the output value of the neuron corresponding to the shape of the object becomes a large value. One set of each of these outputs is obtained for one set of input patterns.

【0011】以上のような構成を有するニューロネット
ワークに、センサ等からの出力として得られる入力パタ
ーンを入力させることにより、その入力パターンに対し
てニューロネットワークにおいて認識処理がなされ、認
識結果が適切な出力パターンとして得られる。
[0011] By inputting an input pattern obtained as an output from a sensor etc. to a neural network having the above configuration, the neural network performs recognition processing on the input pattern, and outputs the recognition result appropriately. Obtained as a pattern.

【0012】このようなニューロネットワークのもとで
前述の数1式を拡張すると以下のようになる。即ち、第
p番目の入力パターンに対する或る層(これを第s層と
呼ぶ)の第i番目のニューロンの出力をxipとし、そ
の1つ左の層(第s−1層)の第j番目のニューロンの
出力をyjpとし、各層のニューロンの個数をnとする
と、
Expanding the above-mentioned equation 1 under such a neural network, we get the following. That is, the output of the i-th neuron in a certain layer (this is called the s-th layer) for the p-th input pattern is xip, and the j-th neuron in the layer one layer to the left (s−1 layer) Let yjp be the output of neurons in , and let n be the number of neurons in each layer.

【0013】[0013]

【数3】[Math 3]

【0014】[0014]

【数4】[Math 4]

【0015】となる。このような関係式が成り立つよう
な図9のニューロネットワークに入力パターンが与えら
れたときに理想的な出力がでるようにするためには、学
習によって重み係数wijすなわちニューロン間の結合
の強さを更新する必要がある。
[0015] In order to produce an ideal output when an input pattern is given to the neural network in Fig. 9 in which such a relational expression holds, the weighting coefficient wij, that is, the strength of the connection between neurons, must be adjusted through learning. Needs to be updated.

【0016】これを実際に行うため、Rumelhar
t{NatrueVol.323−9(1986)}は
次のようなバックプロパゲーションと呼ばれる学習アル
ゴリズムを提案している。まず、学習に用いるパターン
はt個あるものとし、第s層のn個のニューロンにおい
て、第i番目のニューロンにおける第p番目のパターン
に対する教師からの出力値(最も望ましい出力値)をd
ip、実際の出力値をxipとする。 ユークリッドノルムを用いて、第s層における第p番目
のパターンに対する誤差Ep 及びt個の全パターンに
対する誤差Eを次の数5式及び数6式によって評価する
[0016] To actually do this, Rumelhar
t{NatureVol. 323-9 (1986)} proposes the following learning algorithm called backpropagation. First, it is assumed that there are t patterns used for learning, and in the n neurons of the sth layer, the output value (the most desirable output value) from the teacher for the pth pattern in the i-th neuron is d.
ip, and the actual output value is xip. Using the Euclidean norm, the error Ep for the pth pattern in the sth layer and the error E for all t patterns are evaluated by the following equations 5 and 6.

【0017】[0017]

【数5】[Math 5]

【0018】[0018]

【数6】[Math 6]

【0019】Eをwijに対し最小にするため、∂Ep
 /∂wij(Ep のwijに対する偏微分)を計算
し、wijを次式によって更新する。
To minimize E with respect to wij, ∂Ep
/∂wij (partial differential of Ep with respect to wij) is calculated, and wij is updated using the following equation.

【0020】[0020]

【数7】[Math 7]

【0021】ここで、wij(t−1)は更新前の重み
wijの値であり、wij(t)は更新後の重みwij
の値である。ここで、
[0021] Here, wij(t-1) is the value of the weight wij before updating, and wij(t) is the value of the weight wij after updating.
is the value of here,

【0022】[0022]

【数8】[Math. 8]

【0023】である。数7式及び数8式より、wij(
t)は、更新前の重みwij(t−1)を誤差Ep の
最急降下方向へステップ幅ηだけ変化させることによっ
て得られることがわかる。
[0023] From equations 7 and 8, wij(
It can be seen that t) is obtained by changing the weight wij(t-1) before updating by the step width η in the direction of the steepest descent of the error Ep.

【0024】上述の数8式で、Δp wij=−η∂E
p/∂wijは、wijに偏微分とチェインルールを実
行することによって、
In the above equation 8, Δp wij=−η∂E
p/∂wij is obtained by performing partial differentiation and chain rule on wij,

【0025】[0025]

【数9】[Math. 9]

【0026】として計算できるが、更に、δipの求め
方は、第s層が出力層である場合とそうでない場合とで
若干異なる。まず、第s層が出力層の場合は、数9式の
δipは、
However, the method for determining δip is slightly different depending on whether the sth layer is the output layer or not. First, when the sth layer is the output layer, δip in Equation 9 is

【0027】[0027]

【数10】[Math. 10]

【0028】となり、一方、第s層が出力層でない場合
には、第s+1層のニューロンの添字をkとして、
On the other hand, if the sth layer is not the output layer, the subscript of the neuron in the s+1th layer is k, and

【0
029】
0
029]

【数11】[Math. 11]

【0030】となる。但し、fi ’(zip) は、
fi (zip)の1次微分を示す。これより、数8式
〜数11式をネットワークの逆方向に順次適用してwi
jの変化分を計算し、各層について数7式によってニュ
ーロン間の結合の強さを繰り返し調整することによって
、最終的にパターンpを与えると教師からの信号dip
に近い値を出力するニューロネットワークを構成できる
[0030] However, fi' (zip) is
The first derivative of fi (zip) is shown. From this, we can sequentially apply equations 8 to 11 in the reverse direction of the network.
By calculating the change in j and iteratively adjusting the strength of the connection between neurons using Equation 7 for each layer, when a pattern p is finally given, the signal dip from the teacher
It is possible to construct a neuronetwork that outputs a value close to .

【0031】以上のアルゴリズムを汎用又は専用のコン
ピュータシステムにプログラミングしておき、ソフトウ
エア又は専用のハードウエアとして実現されるニューロ
ネットワークに学習用のパターン(視覚情報、触覚情報
等の組)を入力しながら、上記アルゴリズムを実行する
ことにより、ネットワークの学習を行える。この場合、
一度プログラミングすれば、学習すべきパターンが将来
変わっても、再度プログラミングする必要はない。言い
換えれば、外界の刺激に対して内部の構造を自動的に変
化させることのできるシステムが構成できることになる
[0031] The above algorithm is programmed into a general-purpose or dedicated computer system, and learning patterns (sets of visual information, tactile information, etc.) are input to a neural network realized as software or dedicated hardware. However, by executing the above algorithm, the network can be trained. in this case,
Once programmed, there is no need to program again even if the pattern to be learned changes in the future. In other words, it is possible to construct a system that can automatically change its internal structure in response to external stimuli.

【0032】[0032]

【発明が解決しようとする課題】上述のRumelha
rt のバックプロパゲーションアルゴリズムは、比較
的簡単なアルゴリズムであり、従来、様々な工業分野へ
の数多くの適用例が提案されている。
[Problem to be solved by the invention] The above-mentioned Rumelha
The backpropagation algorithm of rt is a relatively simple algorithm, and many examples of its application to various industrial fields have been proposed.

【0033】しかし、予め学習すべきパターンが明確で
ある場合は、前述の数7式に基づいて学習動作を実行す
ればよいが、学習すべきパターンが後から追加されたり
、また、入力信号の数(入力層のニューロンの数)が後
から追加されたりした場合、再学習を行うと以前に覚え
たパターン(重み係数wijすなわちニューロン間の結
合の強さの値)を忘れてしまう場合がほとんどであるた
めに、以前の学習に使用したパターンと新たに追加した
パターンの両者をいっしょにして、始めから学習をし直
す必要があった。
However, if the pattern to be learned is clear in advance, the learning operation may be performed based on the above-mentioned formula 7, but if the pattern to be learned is added later, or if the input signal is If the number (number of neurons in the input layer) is added later, the previously memorized pattern (weighting coefficient wij, that is, the value of the strength of the connection between neurons) is often forgotten when relearning is performed. Therefore, it was necessary to combine both the previously learned pattern and the newly added pattern and start learning again from the beginning.

【0034】この場合、前述の数7式に基づく学習アル
ゴリズムは、一般に収束のスピードが遅く、一度収束さ
せたネットワークを再学習させることは、コンピュータ
の使用効率からみて非常に不経済であるという問題点を
有していた。
[0034] In this case, the learning algorithm based on Equation 7 described above generally has a slow convergence speed, and retraining a network once converged is extremely uneconomical in terms of computer usage efficiency. It had a point.

【0035】本発明は、学習すべきパターンの追加や入
力信号数の追加によって新たな学習処理を行う場合に、
その学習時間の短縮を可能とすることを目的とする。
[0035] In the present invention, when performing new learning processing by adding patterns to be learned or adding the number of input signals,
The purpose is to make it possible to shorten the learning time.

【0036】[0036]

【課題を解決するための手段及び作用】本発明は、入力
パターンを入力する少なくとも1つのニューロンからな
る入力層と、該入力パターンに対応する出力パターンを
出力する少なくとも1つのニューロンからなる出力層と
、前記入力層と出力層との間に接続され、それぞれ複数
のニューロンから構成される少なくとも1層以上の中間
層とからなるニューロネットワークの演算を実行するニ
ューロコンピュータを前提とする。この場合、各ニュー
ロン間の更新前の重み係数が学習入力パターンに対する
出力パターンと教師パターンとの誤差の最急降下方向へ
所定の収束係数分だけ変化させられることによって各ニ
ューロン間の重み係数が更新される重み係数更新ステッ
プを含むバックプロパゲーションアルゴリズムに基づい
て、ニューロネットワークの学習が行われる。
Means and Effects for Solving the Problems The present invention has an input layer consisting of at least one neuron that inputs an input pattern, and an output layer consisting of at least one neuron that outputs an output pattern corresponding to the input pattern. , is assumed to be a neurocomputer that executes calculations of a neuronetwork including at least one intermediate layer connected between the input layer and the output layer, each of which is composed of a plurality of neurons. In this case, the weighting coefficient between each neuron before updating is changed by a predetermined convergence coefficient in the direction of the steepest descent of the error between the output pattern and the teacher pattern for the learning input pattern, thereby updating the weighting coefficient between each neuron. The neural network is trained based on a backpropagation algorithm that includes a step of updating weighting coefficients.

【0037】本発明は、上述のバックプロパゲーション
アルゴリズムに基づくニューロネットワークの学習時に
、以下のような処理が行われることを特徴とする。まず
、上述の所定の収束係数が、各ニューロン間の重み係数
の値の絶対値が1に近いほど0に近く、0に近いほど1
に近い値をとるような該重み係数の関数として決定され
る。
The present invention is characterized in that the following processing is performed during learning of a neural network based on the above-mentioned backpropagation algorithm. First, the above-mentioned predetermined convergence coefficient is closer to 0 as the absolute value of the weighting coefficient between each neuron is closer to 1, and as it is closer to 0, it is 1.
is determined as a function of the weighting coefficient that takes a value close to .

【0038】即ち、例えば、前述の数8式又は数9式に
おける収束係数ηが、ニューロンの結合強度を示すwi
jマトリックスの成分の絶対値が1に近いほど0に近く
、0に近いほど1に近い値をとるようなwijの関数と
して決定される。
That is, for example, the convergence coefficient η in Equation 8 or Equation 9 described above is wi indicating the connection strength of neurons.
It is determined as a function of wij such that the closer the absolute value of the component of the j matrix is to 1, the closer it is to 0, and the closer it is to 0, the closer it is to 1.

【0039】このような収束係数ηは、具体的には例え
ば次式によって定義される。
Specifically, such a convergence coefficient η is defined, for example, by the following equation.

【0040】[0040]

【数12】[Math. 12]

【0041】ここで、η0 及びbは定数である。wi
jの絶対値が大きいことは、神経の結合度が強く、学習
によって神経が太くなったことを示している。なお、前
述の数7式におけるwijの初期値は一般的には0であ
り、その場合、初期状態では、神経細胞(ニューロン)
が存在しても、互に結合していない状態を意味している
[0041] Here, η0 and b are constants. wi
A large absolute value of j indicates that the degree of neural connectivity is strong and that the nerves have become thicker due to learning. Note that the initial value of wij in Equation 7 above is generally 0, and in that case, in the initial state, nerve cells (neurons)
Even if they exist, it means that they are not connected to each other.

【0042】上述の数12式に従えば、wijが0の細
胞群間でネットワークを形成することによって追加学習
を行えるので、以前に学習済のネットワーク部分にはで
きる限り影響を与えない。即ち、一度学習を行ったパタ
ーンを忘れないことになる。
According to Equation 12 above, additional learning can be performed by forming a network between cell groups where wij is 0, so that previously learned network parts are not affected as much as possible. In other words, the pattern once learned will not be forgotten.

【0043】これを実現するため、本発明では更に、ニ
ューロネットワークの各層のニューロンの数が、各層の
ニューロン間の重み係数の絶対値の総和の大きさに従っ
て増加させられる。これにより、神経細胞(ニューロン
)の全質量が増加するほど使用される神経細胞(ニュー
ロン)も増加することを意味しており、人間の脳細胞が
学習によって互いの神経細胞の結合数を増加させるとい
う周知のメカニズムによく対応している。
In order to achieve this, the present invention further increases the number of neurons in each layer of the neural network in accordance with the total sum of absolute values of weighting coefficients between neurons in each layer. This means that as the total mass of nerve cells (neurons) increases, the number of nerve cells (neurons) used also increases, and human brain cells increase the number of connections between neurons through learning. This corresponds well to the well-known mechanism.

【0044】図1は、始めに番号1〜3が付された3層
からなるニューロネットワークにおいて、最も下にある
実線の円で示される入力層の3つのニューロンから、3
桁の2進数からなる入力ビットパターンが入力された場
合、それが偶数値を示しているなら最も上にある実線の
円で示される出力層の1つのニューロンが0を出力し、
奇数値を示しているなら1を出力するように学習が行わ
れる場合の例について、本発明の動作を説明したもので
ある。
FIG. 1 shows a neural network consisting of three layers numbered 1 to 3 at the beginning, from the three neurons in the input layer indicated by the bottom solid circle.
When an input bit pattern consisting of a binary number of digits is input, if it indicates an even value, one neuron in the output layer indicated by the solid circle at the top outputs 0,
The operation of the present invention will be described with respect to an example in which learning is performed to output 1 if an odd value is indicated.

【0045】同図のように、学習の結果、ニューロン同
士を結ぶ神経(重み係数wijの値に対応する)が太く
なっている様子が示されている。この場合、上述したア
ルゴリズムに基づいて、各層のニューロンの数が自動的
に増加させられるが、そのような挙動に加えて、今、3
桁の2進数からなる入力ビットパターンに対する学習が
完了した後、入力ビットパターンを4桁の2進数からな
るパターンに変更する必要性が生じたものとする。
As shown in the figure, as a result of learning, the nerves connecting neurons (corresponding to the value of the weighting coefficient wij) become thicker. In this case, based on the algorithm described above, the number of neurons in each layer is automatically increased, but in addition to such behavior, now 3
Assume that after learning for an input bit pattern consisting of a binary number of digits is completed, it becomes necessary to change the input bit pattern to a pattern consisting of a binary number of four digits.

【0046】この場合、まず、図1の番号1〜3を付し
た実線の円で示されるニューロンに、番号4を付した破
線の円で示されるニューロンが追加される。上述のアル
ゴリズムに従えば、新たに追加されたニューロンの細胞
は他のニューロンと結合されていないため、図1の番号
4のニューロンと他の番号1〜3の各ニューロンとを結
ぶ破線の矢印で示される神経の重み係数wijは0であ
るが、これらは前述の数12式に基づいて更新されるこ
とにより、次第に0から1に向う値を有するようになる
。 即ち、神経が次第に太くなってゆく。
In this case, first, a neuron indicated by a broken line circle numbered 4 is added to the neurons indicated by the solid line circles numbered 1 to 3 in FIG. According to the above algorithm, the cells of the newly added neuron are not connected to other neurons, so the broken line arrows connecting the neuron number 4 in Figure 1 and each of the other neurons numbered 1 to 3 Although the nerve weighting coefficients wij shown are 0, they gradually take on values from 0 to 1 by being updated based on Equation 12 described above. In other words, the nerves gradually become thicker.

【0047】上述の動作を繰り返して入力の桁数を順次
増加させてゆくことにより、図1のように、入力が任意
の桁数Mを有するニューロネットワークを構成すること
ができる。
By repeating the above-described operations and sequentially increasing the number of input digits, it is possible to construct a neuronetwork in which the input has an arbitrary number of digits M, as shown in FIG.

【0048】このように、本発明においては、ニューロ
ネットワークの各層のニューロンの数が各層のニューロ
ン間の重み係数の絶対値の総和の大きさに従って自動的
に増加させられながら新たな学習パターンのみで追加学
習がなされ、その場合に、以前に学習済のネットワーク
部分にはできる限り影響を与えないように新たな学習が
行われる。従って、学習すべきパターンの追加や入力信
号数の追加によって新たな学習処理が行われる場合に、
その学習時間の短縮が可能となる。
As described above, in the present invention, the number of neurons in each layer of the neural network is automatically increased according to the sum of the absolute values of the weighting coefficients between the neurons in each layer, and only a new learning pattern is created. Additional learning is performed, and in this case new learning is performed so as to have as little influence as possible on previously trained network parts. Therefore, when new learning processing is performed by adding patterns to be learned or adding the number of input signals,
This makes it possible to shorten the learning time.

【0049】[0049]

【実施例】以下、図面を参照しながら本発明の実施例に
つき説明する。 第1の実施例の説明 図2は、上述の本発明がニューロネットワークによる異
種センサ統合システムに適用された場合の第1の実施例
を示す斜視図である。
Embodiments Hereinafter, embodiments of the present invention will be described with reference to the drawings. Explanation of First Embodiment FIG. 2 is a perspective view showing a first embodiment in which the present invention described above is applied to a heterogeneous sensor integration system using a neuronetwork.

【0050】このシステムにおいて、まず始めは、床置
きされた2台の視覚センサ(CCDカメラ)211と、
その出力214を画像データに変換する視覚センサ信号
処理装置201は、設置されていないものと仮定し、従
って、視覚情報204は、ホストコンピュータ207に
入力されないものとする。
In this system, first, two visual sensors (CCD cameras) 211 placed on the floor,
It is assumed that the visual sensor signal processing device 201 that converts its output 214 into image data is not installed, and therefore, the visual information 204 is not input to the host computer 207.

【0051】そして、対象物213(同図ではボール)
は、ロボットハンド208先端のハンド部209のグリ
ッパ210に取り付けられた触覚センサ212によって
認識され、その認識結果に基づいてロボットハンド20
8の移動制御、ハンド部209に取り付けられたグリッ
パ210による対象物213の把持が行われる。
[0051] Then, the object 213 (ball in the figure)
is recognized by the tactile sensor 212 attached to the gripper 210 of the hand section 209 at the tip of the robot hand 208, and based on the recognition result, the robot hand 20
8, and gripping of the object 213 by the gripper 210 attached to the hand section 209 is performed.

【0052】触覚センサ212は、例えば基板上に力−
電気信号変換器がマトリックス状に配置され、表面が皮
膚ゴムで被覆された構造を有する。触覚センサ212の
出力215は、触覚センサ信号処理装置202によって
数段階の階調表現された画像データに変換され、触覚情
報205としてホストコンピュータ207に送られる。
[0052] The tactile sensor 212 applies force on the substrate, for example.
It has a structure in which electrical signal converters are arranged in a matrix and the surface is covered with skin rubber. The output 215 of the tactile sensor 212 is converted into image data expressed in several gradations by the tactile sensor signal processing device 202, and sent to the host computer 207 as tactile information 205.

【0053】また、グリッパ210が取り付けられるハ
ンド部209には、グリッパ210が開かれている角度
(以下、開度と呼ぶ)を検出するための特には図示しな
いエンコーダが設けられている。そして、そのエンコー
ダ出力216は、エンコーダインタフェース203を介
して、角度情報206としてホストコンピュータ207
に送られる。
Further, the hand portion 209 to which the gripper 210 is attached is provided with an encoder (not shown) for detecting the angle at which the gripper 210 is opened (hereinafter referred to as the opening degree). The encoder output 216 is sent to the host computer 207 as angle information 206 via the encoder interface 203.
sent to.

【0054】次に、図3は、図2のホストコンピュータ
207の構成図である。インタフェース(I/F)30
6及び307(305は始めは設置されていないとする
)は、それぞれ図2の触覚センサ信号処理装置202か
らの触覚情報205及びエンコーダインタフェース20
3からの角度情報206を入力し、それらをバス308
を介してRAM302へ転送する。
Next, FIG. 3 is a block diagram of the host computer 207 of FIG. 2. Interface (I/F) 30
6 and 307 (assuming that 305 is not initially installed) are the tactile information 205 from the tactile sensor signal processing device 202 and the encoder interface 20 in FIG. 2, respectively.
input the angle information 206 from 3 and send them to bus 308
The data is transferred to the RAM 302 via the .

【0055】一方、RAM302上には、上述の触覚情
報205及び角度情報206のそれぞれを入力として、
ロボットハンド208が対象物213を把持したときの
柔らかさ、大きさ、形状等を検出するニューロネットワ
ーク303が構成される。また、補助記憶装置304に
は、RAM302上でニューロネットワーク303を構
成するときの係数が記憶される。これらについては後述
する。
On the other hand, on the RAM 302, each of the above-mentioned tactile information 205 and angle information 206 is input.
A neuronetwork 303 is configured to detect the softness, size, shape, etc. when the robot hand 208 grips the object 213. Further, the auxiliary storage device 304 stores coefficients used when configuring the neuronetwork 303 on the RAM 302. These will be described later.

【0056】CPU(中央制御装置)301は、バス3
08に接続される各部分の全体的な動作、特にRAM3
02上に構成されるニューロネットワーク303の動作
を制御する。
[0056] The CPU (central control unit) 301 is connected to the bus 3
Overall operation of each part connected to 08, especially RAM3
Controls the operation of the neuronetwork 303 configured on 02.

【0057】なお、ニューロネットワーク303の出力
に基づく、図2のロボットハンド208の移動制御、ハ
ンド部209に取り付けられたグリッパ210による対
象物213の把持制御等を行うための機構は、従来のロ
ボット制御技術と変わるところはないため省略する。
Note that the mechanism for controlling the movement of the robot hand 208 shown in FIG. Since there is no difference from the control technology, it will be omitted.

【0058】次に、RAM302上に構成されるニュー
ロネットワーク303につき説明する。このニューロネ
ットワークは、始めは、触覚情報205及び角度情報2
06のそれぞれを入力として、ロボットハンド208が
対象物213を把持したときの柔らかさ、大きさ、形状
等を検出する機能を有し、その基本構成は、図9で前述
したものと同様である。
Next, the neuronetwork 303 configured on the RAM 302 will be explained. This neuronetwork initially consists of tactile information 205 and angle information 2.
It has a function of detecting the softness, size, shape, etc. when the robot hand 208 grasps the object 213 by inputting each of 06, and its basic configuration is the same as that described above with reference to FIG. .

【0059】続いて、このニューロネットワーク303
の学習手順と、このネットワークを用いた実際の対象物
213(図2)の認識動作具体例について、対象物21
3を球形をしていて柔らかいものの例であるテニスボー
ルとした場合を例にとって説明する。
Next, this neuro network 303
Regarding the learning procedure for the object 21 and a specific example of the recognition operation of the actual object 213 (Fig. 2) using this network, we will explain the learning procedure for the object 21
An example will be explained in which 3 is a tennis ball, which is an example of a spherical and soft object.

【0060】まず、ロボットハンド208にテニスボー
ルを様々な姿勢で把持させ、各姿勢における触覚情報2
05及び角度情報206の組(パターン)を、図3の補
助記憶装置304等に記憶する。
First, the robot hand 208 is made to hold a tennis ball in various postures, and the tactile information 2 in each posture is
05 and the angle information 206 are stored in the auxiliary storage device 304 in FIG. 3 or the like.

【0061】次に、図3のCPU301は、上記各パタ
ーンを、RAM302上に構成されている図9のニュー
ロネットワーク303に入力として与え、いずれのパタ
ーンが入力として与えられても、柔らかさを感じるニュ
ーロン、大きさを感じるニューロン及び形状を感じるニ
ューロンの各出力が、教師信号と等しくなるように、前
述の数7式〜数12式に示すバックプロパゲーションア
ルゴリズムに従って、前述の数5式及び数6式で求まる
誤差が十分小さくなるように重み係数wijを調節する
。 教師信号は、対象物213がテニスボールの場合、柔ら
かさを感じるニューロンの出力値は例えば0.7 、大
きさを感じるニューロンの出力値は例えば0.5 、形
状を感じるニューロンについては球形の形状を感じるニ
ューロンの出力値が例えば1でその他は0の如くである
。このようにして得られた図9の各層の各ニューロン毎
の最終的な重み係数wijの値は、図2の補助記憶装置
304に格納される。
Next, the CPU 301 in FIG. 3 inputs each of the above patterns to the neural network 303 in FIG. In order to make each output of the neuron, the size-sensing neuron, and the shape-sensing neuron equal to the teacher signal, according to the back propagation algorithm shown in Equations 7 to 12 above, Equations 5 and 6 are applied. The weighting coefficient wij is adjusted so that the error determined by the equation becomes sufficiently small. When the object 213 is a tennis ball, the output value of the neuron that senses softness is, for example, 0.7, the output value of the neuron that senses size is, for example, 0.5, and the output value of the neuron that senses shape is spherical. For example, the output value of a neuron that senses is 1 and the others are 0. The final weighting coefficient wij value for each neuron in each layer in FIG. 9 obtained in this way is stored in the auxiliary storage device 304 in FIG.

【0062】この他にも、野球のボールとかゴルフボー
ルを対象物213として与えて学習を行い、また、積み
木のような球形の形状以外の対象物213についても同
様の学習を行う。
In addition to this, learning is performed by giving a baseball or a golf ball as the object 213, and similar learning is also performed with objects 213 other than spherical shapes such as building blocks.

【0063】次に、対象物213の認識動作を行う場合
は、図3のCPU301は、上述の学習手順によって得
られた重み係数wijを補助記憶装置304からRAM
302に呼び出し、前述の数2式〜数4式で示されるア
ルゴリズムにより出力信号を計算する。これによれば、
学習に使用したテニスボール、野球のボール等の認識は
もちろんのこと、学習に使用しなかったソフトボールを
対象物213としても、適当な値、例えば柔らかさを感
じるニューロン、大きさを感じるニューロン及び球形の
形状を感じるニューロンの出力値として、それぞれ0.
5 、1及び1等を出力するようになる。
Next, when performing a recognition operation for the target object 213, the CPU 301 in FIG.
302, and the output signal is calculated using the algorithm shown in Equations 2 to 4 described above. According to this,
In addition to recognizing tennis balls, baseball balls, etc. that were used for learning, even if a softball that was not used for learning is used as the object 213, appropriate values such as neurons that feel softness, neurons that feel size, etc. The output value of the neuron that senses the spherical shape is 0.
5, 1, 1, etc. will be output.

【0064】このように一度学習が終了しシステムが確
定した後に、図2に示すように、床置きされた2台の視
覚センサ(CCDカメラ)211と、その出力214を
画像データに変換する視覚センサ信号処理装置201が
追加設置され、また、図3のホストコンピュータ内に視
覚センサ信号処理装置201からの視覚情報204を入
力するためのインタフェース305が設置された場合を
考える。
Once the learning has been completed and the system has been established, as shown in FIG. Consider a case in which a sensor signal processing device 201 is additionally installed and an interface 305 for inputting visual information 204 from the visual sensor signal processing device 201 is installed in the host computer of FIG.

【0065】前述したように、本発明によれば、センサ
の入力の数が増加しても、それに伴って自動的にニュー
ロンの数を調節できるため、以前の学習内容(重み係数
wijのそれぞれの値)をできる限り忘れさせることな
く、新しい物体、例えば触覚センサだけでは判別しにく
い球形物体と円筒形物体の判別を、円筒物体の教示だけ
で行えるようになる。なお、図2及び図3の実施例の場
合、前述の本発明に基づく学習処理は、図3のCPU3
01が実行する。 第2の実施例の説明 図4に、前述の本発明がニューロネットワークによる異
種センサ統合システムに適用された場合の第2の実施例
を示す。この実施例は、2台の視覚センサ401及び4
02と複数の超音波センサを並べた超音波ソナー403
を備えた移動ロボットに本発明が実施された例である。
As described above, according to the present invention, even if the number of sensor inputs increases, the number of neurons can be automatically adjusted accordingly. It becomes possible to distinguish between new objects, such as spherical objects and cylindrical objects, which are difficult to distinguish using only a tactile sensor, by simply teaching the cylindrical object, without making the user forget the values (values) as much as possible. In the case of the embodiments shown in FIGS. 2 and 3, the learning process based on the present invention described above is performed by the CPU 3 shown in FIG.
01 executes. Explanation of Second Embodiment FIG. 4 shows a second embodiment in which the present invention described above is applied to a heterogeneous sensor integration system using a neuronetwork. This embodiment uses two visual sensors 401 and 4
02 and an ultrasonic sonar 403 with multiple ultrasonic sensors arranged
This is an example in which the present invention is implemented in a mobile robot equipped with.

【0066】このロボットは、左右にキャタピラ404
を有しているため、自由に移動可能であり、例えば工場
内で部品・製品の運搬用等に用いられる。このロボット
には、異種のセンサである右視覚センサ401、左視覚
センサ402及び超音波ソナー403が備えられている
ため、これらの異種センサの統合を行うために本発明が
適用される。
[0066] This robot has caterpillars 404 on the left and right.
Because of this, it can be moved freely and is used, for example, to transport parts and products within a factory. Since this robot is equipped with a right visual sensor 401, a left visual sensor 402, and an ultrasonic sonar 403, which are different types of sensors, the present invention is applied to integrate these different types of sensors.

【0067】右視覚センサ401及び左視覚センサ40
2のそれぞれで検出された右視覚センサの出力405及
び左視覚センサの出力406は、それぞれ右視覚センサ
の検出回路408及び左視覚センサの検出回路409に
入力する。また、超音波ソナー403内の各超音波セン
サから出力される超音波ソナーの出力407は、超音波
ソナーの検出回路410に入力する。
Right visual sensor 401 and left visual sensor 40
The output 405 of the right visual sensor and the output 406 of the left visual sensor detected in each of the above-mentioned cases are input to a detection circuit 408 of the right visual sensor and a detection circuit 409 of the left visual sensor, respectively. Furthermore, the ultrasonic sonar output 407 output from each ultrasonic sensor in the ultrasonic sonar 403 is input to an ultrasonic sonar detection circuit 410 .

【0068】そして、これら右視覚センサの検出回路4
08、左視覚センサの検出回路409及び超音波ソナー
の検出回路410の各出力は、ニューロネットワーク部
411に入力する。
The detection circuit 4 of these right visual sensors
08, each output of the left visual sensor detection circuit 409 and the ultrasonic sonar detection circuit 410 is input to the neuronetwork unit 411.

【0069】ここで、ニューロネットワーク部411は
、実際には前述の第1の実施例の場合と同様に、ホスト
コンピュータ内部のRAMに図3のようにして構成され
るが、ここでは簡単のためニューロネットワーク部41
1として概念的に示してある。上述の各検出回路408
、409及び410の出力がホストコンピュータに入力
されRAM内のニューロネットワークに入力されるまで
の動作は、第1の実施例の場合とほぼ同様である。従っ
て、以下の説明では、上記各出力がニューロネットワー
ク部411上でどのように処理されるかという部分につ
いてのみ説明することとする。なお、後述する第3、第
4の実施例においても同様である。
Here, the neuronetwork unit 411 is actually configured in the RAM inside the host computer as shown in FIG. 3, as in the case of the first embodiment, but here, for simplicity, Neuro network section 41
It is conceptually shown as 1. Each of the above-mentioned detection circuits 408
, 409 and 410 are input to the host computer and input to the neuronetwork in the RAM, the operations are almost the same as in the first embodiment. Therefore, in the following explanation, only how each of the above outputs is processed on the neuronetwork unit 411 will be explained. The same applies to the third and fourth embodiments described later.

【0070】ニューロネットワーク部411の入力には
、上述のように右視覚センサの検出回路408、左視覚
センサの検出回路409及び超音波ソナーの検出回路4
10の各出力が与えられる。ここで、右視覚センサ40
1及び左視覚センサ402からは、画像情報として階調
表現された複数の画素の値が出力される。このため、ニ
ューロネットワーク部411の入力層(図9参照)とし
て、本来、画素の数に対応した数のニューロンが必要で
あるが、図4では説明の簡略化のため、右視覚センサ4
01及び左視覚センサ402のそれぞれについて1つの
ニューロンのみ示されている。同様に、超音波ソナー4
03に対しても、アレイ状に並べられた超音波センサの
数に対応した数のニューロンを入力層に用意すべきであ
るが、図4では超音波ソナー403について1つのニュ
ーロンのみ示されている。また、これらの入力層のニュ
ーロンの簡略化表現に伴って、隠れ層(図9参照、図4
では1層のみで構成されている)のニューロンの数も実
際より減らして示されている。これらの簡略化表現は、
後述する第3、第4の実施例においても同様である。
As described above, the inputs of the neuronetwork unit 411 include the detection circuit 408 of the right visual sensor, the detection circuit 409 of the left visual sensor, and the detection circuit 4 of the ultrasonic sonar.
Ten outputs are provided. Here, the right visual sensor 40
The 1 and left visual sensors 402 output values of a plurality of pixels expressed in gradations as image information. For this reason, the input layer of the neuronetwork unit 411 (see FIG. 9) originally requires a number of neurons corresponding to the number of pixels, but in FIG.
Only one neuron is shown for each of 01 and left visual sensor 402. Similarly, ultrasonic sonar 4
03, the number of neurons corresponding to the number of ultrasonic sensors arranged in an array should be prepared in the input layer, but in FIG. 4, only one neuron is shown for the ultrasonic sonar 403. . In addition, along with the simplified representation of neurons in these input layers, hidden layers (see Figure 9, Figure 4
The number of neurons (consisting of only one layer) is also shown smaller than the actual number. These simplified expressions are
The same applies to third and fourth embodiments to be described later.

【0071】図4のロボットの学習は、以下のようにし
て行われる。今、ニューロネットワーク部411への入
力には、始め、視覚センサの検出回路408、409の
出力のみが与えられて学習が行われるものとする。この
場合、まず、障害物の大きさと障害物までの距離を0と
1の範囲で出力するように学習させる。即ち、ニューロ
ネットワーク部411の出力層の1つのニューロンから
出力される障害物の大きさを表す出力412の値が、大
きい障害物であれば1、中くらいであれば0.5 程度
になるように学習を行わせる。また、ニューロネットワ
ーク部411の出力層の他の1つのニューロンから出力
される障害物との距離を表す出力413の値が、距離の
近い障害物である程1に近い値となるように学習を行わ
せる。
Learning of the robot shown in FIG. 4 is performed as follows. Now, it is assumed that only the outputs of the detection circuits 408 and 409 of the visual sensor are initially input to the neural network unit 411 to perform learning. In this case, first, the computer learns to output the size of the obstacle and the distance to the obstacle in the range of 0 and 1. That is, the value of the output 412 representing the size of the obstacle output from one neuron of the output layer of the neuronetwork unit 411 is set to 1 if the obstacle is large, and about 0.5 if the obstacle is medium. to perform learning. In addition, learning is performed so that the value of the output 413 representing the distance to the obstacle output from another neuron in the output layer of the neuronetwork unit 411 becomes a value closer to 1 as the obstacle is closer. Let it happen.

【0072】次に、上述のように最初は視覚センサ40
1、402のみによって学習されたロボットが、新たに
煙や霧が発生しているような環境におかれた場合につい
ても学習を行わせるためには、超音波ソナー403によ
るセンサ出力407も必要となるが、この場合にも、第
1の実施例の場合と同様にして、センサの入力の数が増
加しても、それに伴って自動的にニューロンの数を調節
できるため、以前の学習内容(重み係数wijのそれぞ
れの値)をできる限り忘れさせることなく、追加学習を
行える。 第3の実施例の説明 図5に、前述の本発明がニューロネットワークによる異
種センサ統合システムに適用された場合の第3の実施例
を示す。本実施例は、本発明がベルトコンベア509上
を移動する青果物507の鮮度評価システムに実施され
た例である。
Next, as described above, the visual sensor 40
In order for a robot that has learned only by 1 and 402 to learn even when it is placed in an environment where smoke or fog is generated, sensor output 407 by ultrasonic sonar 403 is also required. However, in this case, as in the case of the first embodiment, even if the number of sensor inputs increases, the number of neurons can be automatically adjusted accordingly, so that the previous learning content ( Additional learning can be performed without forgetting the values of the weighting coefficients wij as much as possible. Explanation of Third Embodiment FIG. 5 shows a third embodiment in which the present invention described above is applied to a heterogeneous sensor integration system using a neuronetwork. This embodiment is an example in which the present invention is implemented in a freshness evaluation system for fruits and vegetables 507 moving on a belt conveyor 509.

【0073】用いられるセンサは、イメージセンサ50
1、フォトトランジスタ502及びカラーセンサ503
である。それぞれの出力は、イメージセンサの検出回路
510、フォトトランジスタの検出回路511及びカラ
ーセンサの検出回路512を介してニューロネットワー
ク部513に入力される。ニューロネットワーク部51
3は、図4の第2の実施例の場合と同様、簡略化して表
現されている。
The sensor used is the image sensor 50.
1. Phototransistor 502 and color sensor 503
It is. The respective outputs are input to the neuronetwork section 513 via an image sensor detection circuit 510, a phototransistor detection circuit 511, and a color sensor detection circuit 512. Neuro network section 51
3 is represented in a simplified manner as in the case of the second embodiment of FIG.

【0074】イメージセンサ501は、CCD素子を1
次元状に並べたものであり、本来、バーコード状の情報
を読み取る場合に用いられている。フォトトランジスタ
502は、レーザー光源504から発射されたレーザー
光505を一度ポリゴンミラー506で反射させて青果
物507に照射した結果生じる散乱光508を検出する
。ポリゴンミラー506はモータ516により回転させ
られているため、レーザー光505は青果物507の表
面を走査されることになる。従って、青果物507の表
面の1次元の散乱現象を、フォトトランジスタ502で
とらえることができる。
The image sensor 501 has one CCD element.
It is arranged in a dimension and is originally used to read barcode information. The phototransistor 502 detects scattered light 508 that is generated as a result of the laser light 505 emitted from the laser light source 504 being once reflected by the polygon mirror 506 and irradiated onto fruits and vegetables 507 . Since the polygon mirror 506 is rotated by the motor 516, the laser beam 505 is scanned over the surface of the fruits and vegetables 507. Therefore, the one-dimensional scattering phenomenon on the surface of the fruit or vegetable 507 can be captured by the phototransistor 502.

【0075】カラーセンサ503は、赤、青、黄、緑、
ピンク、水色、白及び黒の8色を判別するセンサである
。このセンサも、青果物507の表面の1次元の色の分
布をとらえることができる。
[0075] The color sensor 503 has red, blue, yellow, green,
It is a sensor that distinguishes eight colors: pink, light blue, white, and black. This sensor can also capture the one-dimensional color distribution on the surface of the fruit or vegetable 507.

【0076】図5のシステムでは、ニューロネットワー
ク部513の出力層の1つのニューロンから出力される
青果物の鮮度を表す出力514の値及び同様に他のニュ
ーロンから出力される青果物のうまみを表す出力515
の値によって、青果物507の鮮度とうまみを自動的に
判別できる。
In the system of FIG. 5, the value of an output 514 representing the freshness of fruits and vegetables outputted from one neuron of the output layer of the neuronetwork unit 513, and the value of output 515 representing the taste of fruits and vegetables outputted from other neurons similarly.
The freshness and taste of the fruits and vegetables 507 can be automatically determined based on the value of .

【0077】ここで、図5のシステムの学習は、以下の
ようにして行われる。まず、ニューロネットワーク部5
13の出力層の1つのニューロンから出力される青果物
の鮮度を表す出力514の値が、鮮度の良い青果物であ
る程1に近い値となるように学習を行わせる。また、ニ
ューロネットワーク部513の出力層の他の1つのニュ
ーロンから出力される青果物のうまみを表す出力515
の値が、うまみのある青果物である程1に近い値となる
ように学習を行わせる。基本的な学習方法は、第1の実
施例の場合と同様である。
Here, the learning of the system shown in FIG. 5 is performed as follows. First, neuro network section 5
Learning is performed so that the value of an output 514 representing the freshness of fruits and vegetables outputted from one neuron of the 13 output layers becomes a value closer to 1 as the fruits and vegetables are fresher. In addition, an output 515 representing the taste of fruits and vegetables output from another neuron in the output layer of the neuronetwork unit 513
Learning is performed so that the value of is closer to 1 the more delicious the fruit or vegetable is. The basic learning method is the same as in the first embodiment.

【0078】そして、このようなシステムの判別精度を
更に向上させるために新しく別の種類のセンサを加えた
ような場合、追加学習が必要となる。この場合にも、第
1又は第2の実施例の場合と同様にして、センサの入力
の数が増加しても、それに伴って自動的にニューロンの
数を調節できるため、以前の学習内容(重み係数wij
のそれぞれの値)をできる限り忘れさせることなく、追
加学習を行える。 第4の実施例 図6に、前述の本発明がニューロネットワークによる異
種センサ統合システムに適用された場合の第4の実施例
を示す。この実施例は、本発明が紙幣鑑別機に実施され
た例である。
[0078] If a new sensor of a different type is added to further improve the discrimination accuracy of such a system, additional learning will be required. In this case, as in the case of the first or second embodiment, even if the number of sensor inputs increases, the number of neurons can be automatically adjusted accordingly. Weighting factor wij
Additional learning can be done without making students forget the values of each value). Fourth Embodiment FIG. 6 shows a fourth embodiment in which the present invention described above is applied to a heterogeneous sensor integration system using a neuronetwork. This embodiment is an example in which the present invention is implemented in a bill validator.

【0079】用いられるセンサは、カラーセンサ601
、磁気ヘッド602、603、イメージセンサ604で
ある。それぞれの出力は、カラーセンサの検出回路60
7、磁気ヘッドの検出回路608、609、イメージセ
ンサの検出回路610を介してニューロネットワーク部
611に入力される。ニューロネットワーク部611は
、図4の第2の実施例の場合と同様、簡略化して表現さ
れている。
The sensor used is the color sensor 601.
, magnetic heads 602 and 603, and an image sensor 604. Each output is sent to the color sensor detection circuit 60.
7. The signal is input to the neuronetwork unit 611 via the magnetic head detection circuits 608 and 609 and the image sensor detection circuit 610. The neuronetwork unit 611 is represented in a simplified manner as in the case of the second embodiment shown in FIG.

【0080】図6の紙幣鑑別機では、ニューロネットワ
ーク部611の出力層の3つのニューロンから出力され
る千円の認識出力612、5千円の認識出力613又は
1万円の認識出力614によって、紙幣を鑑別できる。
In the banknote validator shown in FIG. 6, the recognition output 612 for 1,000 yen, the recognition output 613 for 5,000 yen, or the recognition output 614 for 10,000 yen output from the three neurons of the output layer of the neuronetwork section 611, Can identify banknotes.

【0081】ここで、図6の紙幣鑑別機の学習は、以下
のようにして行われる。まず、千円札の紙幣605を図
6の606で表される紙幣の移動方向に移動させた場合
に、ニューロネットワーク部611の出力層の1つのニ
ューロンから出力される千円の認識出力612が1にな
るように学習を行わせる。同様に、5千円札の紙幣60
5の場合に、ニューロネットワーク部611の出力層の
他の1つのニューロンから出力される5千円の認識出力
613が1になるように学習を行わせる。更に、1万円
札の紙幣605の場合に、ニューロネットワーク部61
1の出力層の更に他の1つのニューロンから出力される
1万円の認識出力614が1になるように学習を行わせ
る。そして、新しい紙幣や古い紙幣、傷ついた紙幣、か
すれた紙幣等、様々な紙幣を用いて上述の学習を行わせ
る。基本的な学習方法は、第1の実施例の場合と同様で
ある。
Here, the learning of the banknote validator shown in FIG. 6 is performed as follows. First, when a thousand yen bill 605 is moved in the bill movement direction indicated by 606 in FIG. Have them learn to become 1. Similarly, the banknote 60 of the 5,000 yen bill
In the case of 5, learning is performed so that the recognition output 613 of 5,000 yen output from another neuron in the output layer of the neuronetwork unit 611 becomes 1. Furthermore, in the case of a 10,000 yen bill 605, the neuronetwork unit 61
Learning is performed so that the recognition output 614 of 10,000 yen output from yet another neuron in the output layer 1 becomes 1. Then, the above learning is performed using various banknotes such as new banknotes, old banknotes, damaged banknotes, and faded banknotes. The basic learning method is the same as in the first embodiment.

【0082】従来の紙幣鑑別機においては、磁気ヘッド
のみによる鑑別機が多いが、カラーセンサ及びイメージ
センサを用いると偽札の排除が可能になるため、これら
異種のセンサが搭載された高級型の鑑別機も存在した。 しかし、これら異種センサの出力により千円、5千円、
1万円及び偽札の検知を行うために作成されるアルゴリ
ズムは複雑なものになり、そのアルゴリズムを実現する
コンピュータプログラムのステップ数も膨大なものにな
っていた。更に、新札が発行される毎に、作成されたア
ルゴリズムをすべて見直す必要が生じていた。
[0082] Many conventional banknote validators use only magnetic heads, but the use of color sensors and image sensors makes it possible to eliminate counterfeit banknotes. There was also a machine. However, depending on the output of these different types of sensors,
The algorithms created to detect 10,000 yen and counterfeit bills have become complex, and the number of steps in the computer program that implements the algorithms has also become enormous. Furthermore, every time a new note was issued, it became necessary to review all the algorithms that had been created.

【0083】これに対して、第4の実施例によれば、ニ
ューロネットワーク部611が、学習により多種の紙幣
を鑑別する能力を自動的に身につけるため、新札の発行
に伴う新しいアルゴリズムを作成する手間を大幅に軽減
させることが可能となる。これと共に、新紙幣が発行さ
れた場合に、ニューロネットワーク部611の再学習を
行う場合、旧紙幣の学習の効果をできる限り損わないた
め、学習時間を短縮させることが可能となる。
On the other hand, according to the fourth embodiment, the neuronetwork unit 611 automatically acquires the ability to discriminate between various types of banknotes through learning, so that a new algorithm is created when new banknotes are issued. It becomes possible to significantly reduce the time and effort required for creation. In addition, when relearning the neural network unit 611 when new banknotes are issued, the learning time for the old banknotes can be shortened because the learning effect of the old banknotes is not impaired as much as possible.

【0084】以上第1〜第4の実施例は、汎用コンピュ
ータにニューロネットワークのアルゴリズムを組み入れ
て構成した例であったが、近年のニューロチップの開発
のスピードアップの加速化を考慮すると、専用のニュー
ロチップを利用することにより、ハードウェア上でニュ
ーロネットワークを構成した実施例も容易に実現するこ
とができ、リアルタイム性を要求されるロボット制御や
システム制御には特に有効である。
[0084] The first to fourth embodiments described above are examples in which a neuronetwork algorithm is incorporated into a general-purpose computer. However, considering the acceleration of the development of neurochips in recent years, By using a neurochip, embodiments in which a neuronetwork is configured on hardware can be easily implemented, and this is particularly effective for robot control and system control that require real-time performance.

【0085】[0085]

【発明の効果】本発明によれば、このように従来のニュ
ーロコンピュータが有していた学習時に用いた基本的な
パターンの中間の入力に対しても妥当な出力を与えるこ
と、センサ入力又は細胞(ニューロン)の損傷による補
完効果、並列処理向きであるといった特徴はそのままで
、新しく覚えるべきパターンが発生する事態が発生した
場合に、学習時間を短縮させることが可能となる。
Effects of the Invention According to the present invention, it is possible to provide a reasonable output even for inputs intermediate to the basic patterns used for learning, which conventional neurocomputers have, and to provide sensor inputs or cell inputs. While maintaining the complementary effect due to neuron damage and being suitable for parallel processing, it is possible to shorten the learning time when a new pattern to memorize occurs.

【0086】更に、本発明を複数の異種センサからなる
センサフュージョンのシステムに適用した場合、使用す
るセンサが増加した場合でも、従来のニューロコンピュ
ータに比較して、より柔軟に対応することが可能となる
Furthermore, when the present invention is applied to a sensor fusion system consisting of a plurality of different types of sensors, even when the number of sensors used increases, it is possible to respond more flexibly than with conventional neurocomputers. Become.

【図面の簡単な説明】[Brief explanation of the drawing]

【図1】本発明の原理ブロック図である。FIG. 1 is a block diagram of the principle of the present invention.

【図2】ニューロネットワークによる異種センサ統合シ
ステムの第1の実施例を示す斜視図である。
FIG. 2 is a perspective view showing a first embodiment of a heterogeneous sensor integration system using a neuronetwork.

【図3】第1の実施例によるホストコンピュータの構成
図である。
FIG. 3 is a configuration diagram of a host computer according to the first embodiment.

【図4】ニューロネットワークによる異種センサ統合シ
ステムの第2の実施例を示す斜視図である。
FIG. 4 is a perspective view showing a second embodiment of a heterogeneous sensor integration system using a neuronetwork.

【図5】ニューロネットワークによる異種センサ統合シ
ステムの第3の実施例を示す斜視図である。
FIG. 5 is a perspective view showing a third embodiment of a heterogeneous sensor integration system using a neuronetwork.

【図6】ニューロネットワークによる異種センサ統合シ
ステムの第4の実施例を示す斜視図である。
FIG. 6 is a perspective view showing a fourth example of a heterogeneous sensor integration system using a neuronetwork.

【図7】ニューロンの数学的モデルを示した図である。FIG. 7 is a diagram showing a mathematical model of a neuron.

【図8】sigmoid 関数を示した図である。FIG. 8 is a diagram showing a sigmoid function.

【図9】ニューロネットワークの例を示した図である。FIG. 9 is a diagram showing an example of a neuronetwork.

【符合の説明】[Explanation of sign]

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】  入力パターンを入力する少なくとも1
つのニューロンからなる入力層と、該入力パターンに対
応する出力パターンを出力する少なくとも1つのニュー
ロンからなる出力層と、前記入力層と出力層との間に接
続され、それぞれ複数のニューロンから構成される少な
くとも1層以上の中間層とからなるニューロネットワー
クの演算を実行するニューロコンピュータであって、前
記各ニューロン間の更新前の重み係数が学習入力パター
ンに対する出力パターンと教師パターンとの誤差の最急
降下方向へ所定の収束係数分だけ変化させられることに
よって前記各ニューロン間の重み係数が更新される重み
係数更新ステップを含むバックプロパゲーションアルゴ
リズムに基づいて、前記ニューロネットワークの学習が
行われるニューロコンピュータにおいて、前記バックプ
ロパゲーションアルゴリズムに基づく前記ニューロネッ
トワークの学習時に、前記所定の収束係数が、前記各ニ
ューロン間の重み係数の値の絶対値が1に近いほど0に
近く、0に近いほど1に近い値をとるような該重み係数
の関数として決定され、前記ニューロネットワークの前
記各層のニューロンの数が、前記各層のニューロン間の
重み係数の絶対値の総和の大きさに従って増加させられ
る、ことを特徴とするニューロコンピュータ。
[Claim 1] At least one for inputting an input pattern
an input layer consisting of one neuron, an output layer consisting of at least one neuron that outputs an output pattern corresponding to the input pattern, and an output layer connected between the input layer and the output layer, each consisting of a plurality of neurons. A neurocomputer that executes calculations of a neural network consisting of at least one intermediate layer, wherein the weighting coefficients between each neuron before updating are in the direction of the steepest descent of the error between the output pattern and the teacher pattern with respect to the learning input pattern. In the neurocomputer, the neural network is trained based on a backpropagation algorithm including a weighting coefficient updating step in which the weighting coefficients between the neurons are updated by changing the weighting coefficient by a predetermined convergence coefficient to the neuron. When the neural network is trained based on a backpropagation algorithm, the predetermined convergence coefficient is closer to 0 as the absolute value of the weighting coefficient between each neuron is closer to 1, and the closer it is to 0, the closer the predetermined convergence coefficient is to 1. The number of neurons in each layer of the neural network is increased according to the sum of the absolute values of the weighting factors among the neurons in each layer. neurocomputer.
JP3021846A 1991-02-15 1991-02-15 Neurocomputer Pending JPH04260160A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3021846A JPH04260160A (en) 1991-02-15 1991-02-15 Neurocomputer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3021846A JPH04260160A (en) 1991-02-15 1991-02-15 Neurocomputer

Publications (1)

Publication Number Publication Date
JPH04260160A true JPH04260160A (en) 1992-09-16

Family

ID=12066463

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3021846A Pending JPH04260160A (en) 1991-02-15 1991-02-15 Neurocomputer

Country Status (1)

Country Link
JP (1) JPH04260160A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021139723A (en) * 2020-03-04 2021-09-16 国立大学法人鳥取大学 Identification device, identification method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021139723A (en) * 2020-03-04 2021-09-16 国立大学法人鳥取大学 Identification device, identification method, and program

Similar Documents

Publication Publication Date Title
Hinton How neural networks learn from experience
AU644116B2 (en) Categorization automata employing neuronal group selection with reentry
Fukumi et al. Rotation-invariant neural pattern recognition system estimating a rotation angle
JP7197753B2 (en) Manipulator control device and manipulator control system
Weng et al. Brain-like emergent spatial processing
Floreano et al. Evolution of neural controllers with adaptive synapses and compact genetic encoding
Johnsson et al. Associative self-organizing map
Solgi et al. Developmental stereo: Emergence of disparity preference in models of the visual cortex
JPH04260160A (en) Neurocomputer
Fasel An introduction to bio-inspired artificial neural network architectures
Madani Artificial neural networks based image processing & pattern recognition: from concepts to real-world applications
Xing et al. Artificial evolution network: A computational perspective on the expansibility of the nervous system
JPH04127263A (en) Neuron sensor
JPH04501327A (en) pattern transfer neural network
Ushida et al. Fuzzy-associative-memory-based knowledge construction with an application to a human-machine interface
Hudson et al. Choosing and using a neural net
Sapkal et al. Analysis of classification by supervised and unsupervised learning
Sabzevari et al. Object detection and localization system based on neural networks for robo-pong
Lobo et al. A simplification of the theory of neural groups selection for adaptive control
JPH02165285A (en) pattern recognition device
Weiland A connectionist approach to autonomous robotic navigation
Hinton How Neurl Networks Len rom Eperience
Yamauchi et al. Self‐organizing architecture for learning novel patterns
Kleesiek et al. What do objects feel like?-Active perception for a humanoid robot
Thint Robotic tactile pattern recognition with artificial neural networks

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 19981222