JPH02108179A - パターン分別・学習装置 - Google Patents
パターン分別・学習装置Info
- Publication number
- JPH02108179A JPH02108179A JP63259422A JP25942288A JPH02108179A JP H02108179 A JPH02108179 A JP H02108179A JP 63259422 A JP63259422 A JP 63259422A JP 25942288 A JP25942288 A JP 25942288A JP H02108179 A JPH02108179 A JP H02108179A
- Authority
- JP
- Japan
- Prior art keywords
- pattern
- neural network
- output
- input
- input signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013528 artificial neural network Methods 0.000 claims abstract description 41
- 238000006243 chemical reaction Methods 0.000 claims description 12
- 238000010606 normalization Methods 0.000 abstract description 11
- 230000008878 coupling Effects 0.000 abstract 1
- 238000010168 coupling process Methods 0.000 abstract 1
- 238000005859 coupling reaction Methods 0.000 abstract 1
- 230000002950 deficient Effects 0.000 abstract 1
- 230000014509 gene expression Effects 0.000 description 9
- 238000000034 method Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 3
- 230000001149 cognitive effect Effects 0.000 description 2
- 208000027697 autoimmune lymphoproliferative syndrome due to CTLA4 haploinsuffiency Diseases 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000009194 climbing Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
Landscapes
- Image Analysis (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
め要約のデータは記録されません。
Description
この発明はニューラルネットワークを用いた例えば、文
字読取、音声認識2画像認識、信号理解などにおけるパ
ターン分別・パターン学習装置に関するものである。
字読取、音声認識2画像認識、信号理解などにおけるパ
ターン分別・パターン学習装置に関するものである。
第5図は、例えば「概念の学習分散表現」 〔ジー・イ
ー・ヒントン著、第8回認知科学会国際会議予稿集、1
986年発行) (G、E、Hinton、”Lea
r−ning Distributed Repres
entatior+s of conceptsl”P
roceedings of 8th Annual
Conference of theCognitiv
e 5cience 5ociety、 1986+
ppl−ppl2)に示された従来の手法にもとづくパ
ターン分別・学習装置の構成図である。図においてlは
人力信号中にいかなるパターンが存在するかを示す出力
信号を後述のニューラルネットワーク3を用いて生成す
るパターン分別装置、2はパターン分別装置1が望まし
い出力信号を出力しなかったときに望ましい出力を外部
より受け取ってニューラルネットワーク3に学習させる
パターン学習装置、3はニューラルネットワーク、4は
入力信号、5は出力信号、6は望ましい出力、7はニュ
ーラルネットワーク3を用いてパターン分別装置1が出
力信号5を計算するための入力信号の正規化情報である
。 次に第5図の動作を第6図のフローチャートを参照して
以下に説明する。まずパターンを分別する機能について
説明する。第2図は一般的なニューラルネットワーク3
の構成例である。図においてニューラルネットワーク3
は1つの入力層12と1つ以上の中間層13.1つの出
力層14とより構成されている。各層に対して入力層1
2に近い層を下位の層、出力層14に近い層を上位の層
と呼ぶことにする。各層は1つ以上のユニット10から
できている。各ユニット10からは1つ上位の層のすべ
て、もしくは一部のユニットlOに向けて任意の値の重
みをもった結合11が伸びている。各ユニット10には
(0,1)の範囲の連続した値が入力される。ユニッ)
ujの入力(i x jは、このユニット10への結合
11をもつ1つ下位の層中のユニットをUム、入力値を
X、出力値をy、ユニットuiからユニットu4への結
合11の重みをWj!とすると(1)式が成立する。 Xj=ΣW j i・y t−−−−−−・・−・−・
・−・−−−−−・・−・・・(1)このときある関数
g (x)を使い、出力値yjはyj=g (XJ ) によって決定される。一般に関数g (x)には(2)
式%式% 入力層12のユニット10に与えられる入力値のベクト
ルが入力信号15であり、出力層14のユニット10か
ら得られる出力値のベクトルが出力信号16である。各
ユニット10の出力値を入力Ji12から出力Ji14
に向かって順に計算して行くことにより出力信号16が
得られる。ただし、入力層12中のユニッl−10の出
力値を計算するさいには入力信号15は(0,13の範
囲の値に正規化されなければならない(ステップ、5T
I)。 すなわち、入力信号15がとりうる値の範囲である制限
を知った上でこの制限内での相対値として入力信号15
は入力層12の各ユニッ)10に与えられる(ステップ
、5T2)。第5図における正規化情報7はこのために
使用される。出力値の解釈は、例えばニューラルネット
ワーク3が分別すべきパターンがn個あるとき出力層1
4にn個のユニット10を設けてこれをパターン1つ1
つに対応させ、出力値が一定値以上のユニット10に対
応するパターンが入力信号中に含まれていたと解釈した
りする。 学習は、例えば後向き誤差伝播アルゴリズムを用いて実
現される。この学習アルゴリズムのための基本方針は、
入力信号15をニューラルネットワーク3に与えて出力
信号16を計算しこの出力信号16と望ましい出力信号
16との誤差を山登り法により重みWBを設定し、これ
を変えて最小化していく(ステップ、5T3)。次に入
出力信号の組である例題の集合に対して学習を繰り返す
(ステップ、ST4〜5)。誤差Eは と定義する。ここでCは例題のインデックス、jは出力
層14のユニットIOのインデックス、yは出力値、d
は望ましい出力6である。誤差Eを最小化するために誤
差Eの重みWに関する変微分係数を求めることにする。 第一にθE/θyjを各出カニニットに対して求める。 Cを固定するとθE/θVt =’jt dj ’
−−−−−・−・・−・−−−−一−−・(4)ここで
、θE/θXjを求めるためにchain辷uleθE
/θX、=(θE/θy、)(θyj/θXj)と式(
2)の微分を用いると(5)式が得られる。 θE/θX、=(θE/θy=)ya(y= 1)・
−(5)これは誤差Eが出カニニット10への入力によ
り影響されることを示しているがXjは下位レベルのユ
ニット10の出力と重みWの線型関数で表されるので、
誤差Eが下位レベルのユニッ)10(7)出力と重みW
の影響をいかに受けるかが簡単に計算できる。chai
n ruleにより(θ E/θ w jt)=(θ
E/θ X J)(a x j/ θ W ji)
X j ” W j i ’/ 1 とかけるが、Wj
、を変化させてもyiはXJに影響しないのでylは定
数とみなせる。よって (θE/θWj正)=(θE/θXJ)V正 ・−・−
(6)また、i番目のユニット10の出力値yが誤差已
にもたらす影響は同様にして θE/θy、=(θE/θxj)(θXj/θyz)=
(θE/θXj)Wj五 となる。そこでi番目のユニットlOから放射されてい
るすべての結合を考慮すると θE/θyt =Σ(θE/θx J) WJ= ・
−−−(7)となり、出力層14より1つ下位レベルの
ユニット10に対する誤差Eの変動θE/θy、は、(
5)式と(7)式とより、出力層14でのユニットlO
の出力yjに関する誤差Eの変動θE/θ’ijで次の
ように表される。 θE/θyi=Σ(θE/θy i) y j(y i
1) wj!・・−・・ −(χ) 式(x)はある下位のレベルのユニット10の出力の変
動が誤差已に及ぼす影響はその1つ上位のレベルのユニ
ットlOの出力の変動が誤差に及ぼす影響により表され
ることを示している。この手続きは出力Jii14のユ
ニット10とその1つ下位レベルのユニット10との結
合11以外の結合の場合も使える。 今度は重みWの変動が誤差Eに及ぼす影響について考え
る。もっとも簡単な山登りの方式として重みWをθE/
θWに比例した量だけ変動させることを考える。つまり
、 ΔW=−ε (θE/θW)・・−・−−−−一−・−
・・−・−(8)式(8)に弐(5)(6)を適用する
とΔW j ! =−ε(θE/θx=)yt=−ε(
θE/θ)’i))’jO’= 1)yt−(Y)と
なる。この式(Y)と(X)とよりユニットiからユニ
ットjへの重みWijの変動分ΔWJ、はユニットjよ
りルベル上位のユニットにおけるθE/θyを計算する
ことにより求めることができることが判明する。 実際に重みWを更新する手続きは出力層14から人力層
12に向けて、出力値を求める手続きとは逆向きに行わ
れる。ニューラルネットワーク3がn層からできている
場合で考える。第n層(出力層)におけるユニット10
のθE/θyは(4)式より出力値と望ましい出力との
差である。これと(Y)式により第n層のユニットと第
n−1層のユニットの間の結合の重みWを更新する。さ
らに更新前の重みWと第n層におけるユニットのθE/
θyを用いて(X)式より第n−1層のユニットのθE
/θyを求める。以後nを減少させる方向にこの操作を
繰り返すことにより重みWが順次更新されていく。 このアルゴリズムを実現するために第2図に示されたニ
ューラルネットワーク3中の各ユニット10と結合11
は例えば、ICメモリなどの記憶素子で構成される。各
ユニットlOは自らの出力値yと出力の変動に対する誤
差Eの変動分θE/ayを記憶している。各結合は重み
Wと重みの変化分ΔWを記憶している。ただし各結合中
のWの初期値は全く任意に決められる。このようにして
、各パターンに対し、例題の生成と学とが行われ、全て
のパターンをこの方法で分別可能か否か繰り返し判別す
る(ステップ、5T6)。第5図に示されたパターン分
類装置は、前記ステップ、 ST6を実行するもので
、例えばマイクロプロセッサのような計算機構を用いて
(1)(2)式より各ユニット10の出力値yを計算す
る。この処理が完了したときに出力層14の各ユニット
lOから得られた出力信号16が望ましい出力と異なっ
ている場合、第5図に示されたパターン学習装置が起動
される。 パターン学習装置はユニットlO中のθE/θyと結合
中の誤差ΔWを例えばマイクロプロセッサのような計算
機構を用いて(X) (Y)式にもとづいて計算する。 以上のように、第6図のフローチャートに基いてパター
ンの分別と学習とが行われる。
ー・ヒントン著、第8回認知科学会国際会議予稿集、1
986年発行) (G、E、Hinton、”Lea
r−ning Distributed Repres
entatior+s of conceptsl”P
roceedings of 8th Annual
Conference of theCognitiv
e 5cience 5ociety、 1986+
ppl−ppl2)に示された従来の手法にもとづくパ
ターン分別・学習装置の構成図である。図においてlは
人力信号中にいかなるパターンが存在するかを示す出力
信号を後述のニューラルネットワーク3を用いて生成す
るパターン分別装置、2はパターン分別装置1が望まし
い出力信号を出力しなかったときに望ましい出力を外部
より受け取ってニューラルネットワーク3に学習させる
パターン学習装置、3はニューラルネットワーク、4は
入力信号、5は出力信号、6は望ましい出力、7はニュ
ーラルネットワーク3を用いてパターン分別装置1が出
力信号5を計算するための入力信号の正規化情報である
。 次に第5図の動作を第6図のフローチャートを参照して
以下に説明する。まずパターンを分別する機能について
説明する。第2図は一般的なニューラルネットワーク3
の構成例である。図においてニューラルネットワーク3
は1つの入力層12と1つ以上の中間層13.1つの出
力層14とより構成されている。各層に対して入力層1
2に近い層を下位の層、出力層14に近い層を上位の層
と呼ぶことにする。各層は1つ以上のユニット10から
できている。各ユニット10からは1つ上位の層のすべ
て、もしくは一部のユニットlOに向けて任意の値の重
みをもった結合11が伸びている。各ユニット10には
(0,1)の範囲の連続した値が入力される。ユニッ)
ujの入力(i x jは、このユニット10への結合
11をもつ1つ下位の層中のユニットをUム、入力値を
X、出力値をy、ユニットuiからユニットu4への結
合11の重みをWj!とすると(1)式が成立する。 Xj=ΣW j i・y t−−−−−−・・−・−・
・−・−−−−−・・−・・・(1)このときある関数
g (x)を使い、出力値yjはyj=g (XJ ) によって決定される。一般に関数g (x)には(2)
式%式% 入力層12のユニット10に与えられる入力値のベクト
ルが入力信号15であり、出力層14のユニット10か
ら得られる出力値のベクトルが出力信号16である。各
ユニット10の出力値を入力Ji12から出力Ji14
に向かって順に計算して行くことにより出力信号16が
得られる。ただし、入力層12中のユニッl−10の出
力値を計算するさいには入力信号15は(0,13の範
囲の値に正規化されなければならない(ステップ、5T
I)。 すなわち、入力信号15がとりうる値の範囲である制限
を知った上でこの制限内での相対値として入力信号15
は入力層12の各ユニッ)10に与えられる(ステップ
、5T2)。第5図における正規化情報7はこのために
使用される。出力値の解釈は、例えばニューラルネット
ワーク3が分別すべきパターンがn個あるとき出力層1
4にn個のユニット10を設けてこれをパターン1つ1
つに対応させ、出力値が一定値以上のユニット10に対
応するパターンが入力信号中に含まれていたと解釈した
りする。 学習は、例えば後向き誤差伝播アルゴリズムを用いて実
現される。この学習アルゴリズムのための基本方針は、
入力信号15をニューラルネットワーク3に与えて出力
信号16を計算しこの出力信号16と望ましい出力信号
16との誤差を山登り法により重みWBを設定し、これ
を変えて最小化していく(ステップ、5T3)。次に入
出力信号の組である例題の集合に対して学習を繰り返す
(ステップ、ST4〜5)。誤差Eは と定義する。ここでCは例題のインデックス、jは出力
層14のユニットIOのインデックス、yは出力値、d
は望ましい出力6である。誤差Eを最小化するために誤
差Eの重みWに関する変微分係数を求めることにする。 第一にθE/θyjを各出カニニットに対して求める。 Cを固定するとθE/θVt =’jt dj ’
−−−−−・−・・−・−−−−一−−・(4)ここで
、θE/θXjを求めるためにchain辷uleθE
/θX、=(θE/θy、)(θyj/θXj)と式(
2)の微分を用いると(5)式が得られる。 θE/θX、=(θE/θy=)ya(y= 1)・
−(5)これは誤差Eが出カニニット10への入力によ
り影響されることを示しているがXjは下位レベルのユ
ニット10の出力と重みWの線型関数で表されるので、
誤差Eが下位レベルのユニッ)10(7)出力と重みW
の影響をいかに受けるかが簡単に計算できる。chai
n ruleにより(θ E/θ w jt)=(θ
E/θ X J)(a x j/ θ W ji)
X j ” W j i ’/ 1 とかけるが、Wj
、を変化させてもyiはXJに影響しないのでylは定
数とみなせる。よって (θE/θWj正)=(θE/θXJ)V正 ・−・−
(6)また、i番目のユニット10の出力値yが誤差已
にもたらす影響は同様にして θE/θy、=(θE/θxj)(θXj/θyz)=
(θE/θXj)Wj五 となる。そこでi番目のユニットlOから放射されてい
るすべての結合を考慮すると θE/θyt =Σ(θE/θx J) WJ= ・
−−−(7)となり、出力層14より1つ下位レベルの
ユニット10に対する誤差Eの変動θE/θy、は、(
5)式と(7)式とより、出力層14でのユニットlO
の出力yjに関する誤差Eの変動θE/θ’ijで次の
ように表される。 θE/θyi=Σ(θE/θy i) y j(y i
1) wj!・・−・・ −(χ) 式(x)はある下位のレベルのユニット10の出力の変
動が誤差已に及ぼす影響はその1つ上位のレベルのユニ
ットlOの出力の変動が誤差に及ぼす影響により表され
ることを示している。この手続きは出力Jii14のユ
ニット10とその1つ下位レベルのユニット10との結
合11以外の結合の場合も使える。 今度は重みWの変動が誤差Eに及ぼす影響について考え
る。もっとも簡単な山登りの方式として重みWをθE/
θWに比例した量だけ変動させることを考える。つまり
、 ΔW=−ε (θE/θW)・・−・−−−−一−・−
・・−・−(8)式(8)に弐(5)(6)を適用する
とΔW j ! =−ε(θE/θx=)yt=−ε(
θE/θ)’i))’jO’= 1)yt−(Y)と
なる。この式(Y)と(X)とよりユニットiからユニ
ットjへの重みWijの変動分ΔWJ、はユニットjよ
りルベル上位のユニットにおけるθE/θyを計算する
ことにより求めることができることが判明する。 実際に重みWを更新する手続きは出力層14から人力層
12に向けて、出力値を求める手続きとは逆向きに行わ
れる。ニューラルネットワーク3がn層からできている
場合で考える。第n層(出力層)におけるユニット10
のθE/θyは(4)式より出力値と望ましい出力との
差である。これと(Y)式により第n層のユニットと第
n−1層のユニットの間の結合の重みWを更新する。さ
らに更新前の重みWと第n層におけるユニットのθE/
θyを用いて(X)式より第n−1層のユニットのθE
/θyを求める。以後nを減少させる方向にこの操作を
繰り返すことにより重みWが順次更新されていく。 このアルゴリズムを実現するために第2図に示されたニ
ューラルネットワーク3中の各ユニット10と結合11
は例えば、ICメモリなどの記憶素子で構成される。各
ユニットlOは自らの出力値yと出力の変動に対する誤
差Eの変動分θE/ayを記憶している。各結合は重み
Wと重みの変化分ΔWを記憶している。ただし各結合中
のWの初期値は全く任意に決められる。このようにして
、各パターンに対し、例題の生成と学とが行われ、全て
のパターンをこの方法で分別可能か否か繰り返し判別す
る(ステップ、5T6)。第5図に示されたパターン分
類装置は、前記ステップ、 ST6を実行するもので
、例えばマイクロプロセッサのような計算機構を用いて
(1)(2)式より各ユニット10の出力値yを計算す
る。この処理が完了したときに出力層14の各ユニット
lOから得られた出力信号16が望ましい出力と異なっ
ている場合、第5図に示されたパターン学習装置が起動
される。 パターン学習装置はユニットlO中のθE/θyと結合
中の誤差ΔWを例えばマイクロプロセッサのような計算
機構を用いて(X) (Y)式にもとづいて計算する。 以上のように、第6図のフローチャートに基いてパター
ンの分別と学習とが行われる。
従来のパターン分別・学習装置は以上のように構成され
ているので、パターン分別装置が複数のパターンを正し
く分別できるようになるまで、使用者が絶えず望ましい
出力6をパターン学習装置に入力してやる必要がありニ
ューラルネットワーク3中の結合11の重みを学習させ
ていかなければならないという課題があった。また、従
来のパターン分別・学習装置では入力信号を(0,1)
の範囲に正規化するために正規化情報をパターン分別の
度に入力しなければならないという課題があった。 この発明は上記のような課題を解消するためになされた
もので、分別すべき入カバターンの特徴を予め一定の規
則に従って指定しておくことによりこれを分別するよう
なニューラルネットワーク3中の結合11の重みを自動
的に生成するパターン分別・学習装置を得ることを目的
とする。
ているので、パターン分別装置が複数のパターンを正し
く分別できるようになるまで、使用者が絶えず望ましい
出力6をパターン学習装置に入力してやる必要がありニ
ューラルネットワーク3中の結合11の重みを学習させ
ていかなければならないという課題があった。また、従
来のパターン分別・学習装置では入力信号を(0,1)
の範囲に正規化するために正規化情報をパターン分別の
度に入力しなければならないという課題があった。 この発明は上記のような課題を解消するためになされた
もので、分別すべき入カバターンの特徴を予め一定の規
則に従って指定しておくことによりこれを分別するよう
なニューラルネットワーク3中の結合11の重みを自動
的に生成するパターン分別・学習装置を得ることを目的
とする。
この発明に係るパターン分別・学習装置はパターン記述
変換装置にパターン記述を入力し、そのパターン記述に
特徴が記述されたパターンを分別できるニューラルネッ
トワークを自動的に生成するようにし、前記パターン記
述より入力信号を正規化するための正規化情報の両方を
自動的に生成する前記パターン記述変換装置を従来のパ
ターン分別・学習装置に付加しニューラルネットワーク
の結合の重みを自動的に生成するようにしたものである
。
変換装置にパターン記述を入力し、そのパターン記述に
特徴が記述されたパターンを分別できるニューラルネッ
トワークを自動的に生成するようにし、前記パターン記
述より入力信号を正規化するための正規化情報の両方を
自動的に生成する前記パターン記述変換装置を従来のパ
ターン分別・学習装置に付加しニューラルネットワーク
の結合の重みを自動的に生成するようにしたものである
。
この発明におけるパターン分別・学習装置はパターン記
述により分別すべきパターンの特徴と入力信号の制限が
指定されるので、前記パターン記述に指定されたパター
ンを分別するニューラルネットワークを自動的に生成で
き、また、入力信号の正規化情報をオンライン記憶化し
てこれをパターン分別装置にかけ、入力信号の正規化を
自動的に行う。更に、この発明におけるパターン分別・
学習装置にはパターン学習装置も備えているのでパター
ン記述に指定されたパターンの特徴に不備があった場合
でも学習によりニューラルネットワークを自動的に修正
する。
述により分別すべきパターンの特徴と入力信号の制限が
指定されるので、前記パターン記述に指定されたパター
ンを分別するニューラルネットワークを自動的に生成で
き、また、入力信号の正規化情報をオンライン記憶化し
てこれをパターン分別装置にかけ、入力信号の正規化を
自動的に行う。更に、この発明におけるパターン分別・
学習装置にはパターン学習装置も備えているのでパター
ン記述に指定されたパターンの特徴に不備があった場合
でも学習によりニューラルネットワークを自動的に修正
する。
以下、この発明の一実施例を図について説明する。図中
、第5図と同一の部分は同一の符号をもって図示した第
1図において、8はパターン記述変換装置、9はパター
ン記述である。入力信号4の正規化情報7と第5図に示
す入力信号との相違点は、オンライン記憶化されている
ことにある。 第1図のパターン記述9は、第3図に示すように、人力
信号4の特徴を指定した変数宣言9Aと、パターンの特
徴を指定したスケルトン宣言9Bとからなる。変数宣言
9Aは入力信号15を表現する変数名と人力信号15が
とりうる値の制限範囲を指定した制限とからなる。制限
はたとえば、第4図に示したような規則にもとづいてい
る。ただし制限Aは一意的制限Bと集合的制限Cとに分
けられる。集合的制限は外延的表現りと内包的表現Eと
に分けられる。そして例えば 変数1=・5.2: 変数2 : enum(2,4,8);変数3:〉・1
63.2.< 611.28;のように書かれる。各式
の意味は順に「変数1の値は5.2でなければならない
。」 「変数2の値は2.4.8のいづれかでなければ
ならない。」 「変数3の値は163.2以上で611
.28未満である。」これらを順にB−一意的制限D外
延的表現、E内包的表現と呼ぶことにする。スケルトン
宣言9Bとは先に宣言された変数の値に対して満足され
るべき条件を付加することにより認識すべきパターンの
特徴を記述したものである。スケルトンは分別すべきパ
ターンに1対1に対応して宣言される。 スケルトン宣言9Bは第4図に示したように変数名とそ
の値に対する制限、さらに複数の変数間で満足されるべ
き条件を示した制約からなる。制限は先と同様の手法で
指定される。制約は例えば第4図に示したような規則に
したがって指定される。 制約中の論理式とは変数間で満足されるべき条件を表し
た、真と偽の2値をもつ式である。これは例えば double(変数1.変数2)へND変数2==8−
>変数2==4;変数1 >= 100 OR変数2<
= 3.3<−>変数3・・1.0;のように書かれ、
順に「変数1の値の2倍が変数2の値であり、かつ変数
2の値が8であるなら変数1の値は4である。」 「変
数1が100以上であるかまたは変数2が3.3以下で
あることは変数3が1.0であることと等価である。」
という意味である。 次に第1図の動作について説明する。まず従来のパター
ン分別・学習装置ではニューラルネットワーク3の各結
合11の重みWの初期値は任意の値を設定しているが、
本方式ではパターン分別・学習装置の使用者がパターン
記述9に入力信号15から分別すべきパターンの特徴を
スケルトンとして記述しておきこれをもとにパターン記
述変換装置8がニューラルネットワーク3の各結合の重
みの初期値を設定する。その後、入力信号4がパターン
分別装置1に与えられ、パターン分別装置1はニューラ
ルネットワーク3を用いてこの入力信号4を分別する。 さらに、もしパターン記述9に不備があって使用者の意
図にそくわない分別が行われたときは、使用者はパター
ン学習装置2にニューラルネットワーク3と望ましい出
力を与えニューラルネットワーク3をトレーニングする
。 パターン記述変換装置8は入力信号4の正規化情報7と
ニューラルネットワーク3の構造および各結合の重みを
生成する。入力信号4の正規化情報7は先の変数の制限
にもとづいて生成される。 一意的制限Bの場合は入力信号4は[0,1)の範囲中
の一定値に正規化される。外延的表現りの場合は[0,
1)の範囲中の離散した値に対応づけられて正規化され
る。したがって、これら2つの場合には制限として与え
られた値とそれに対応する正規化値との組が正規化情報
として出力される。内包的表現Eの場合には 正規化値=(入力値−最小値)/最大値の計算式が正規
化情報7として出力される。この正規化情報7はパター
ン分別装置1が入力信号4を正規化するための手段とし
てオンライン的に用いられる。ネットワークについては
第2図に示すように入力層12.中間層13.出力層1
4の3層からできているものと仮定し、パターン記述変
換装置8はニューラルネットワーク3のユニット10と
各結合11の重みを生成する。入力層12中の各ユニッ
ト10はパターン記述で指定された変数1つ1つに対応
するものとして、入力層12中のユニット10は変数の
数だけつくられる。出力層14中のユニット10の数は
分別すべきパターンの数だけ、すなわちスケルトンの数
だけ用意される。中間層13のユニット数は出力層14
のユニット数をNとして logzN≦X < 10gz (N + 1 )を満
足する整数Xに設定される。これらのユニット間の結合
の重みは全く任意に設定される。次にパターン記述変換
装置8はスケルトンによって指定された制限・制約を満
たすような例題を発生させる。すなわち、制限が指定さ
れた変数に対してはその制限を満足するような値を、制
限が指定されていない変数に対しては全く任意な値を設
定し、さらにこれらのうち制約を満足するものだけを取
り出す。このようにしてできた例題をパターン記述変換
装置8はパターン分別装置1に与え出力信号16を計算
させる。、さらに、パターン記述変換装置8はこの出力
信号16と望ましい出力6、ニューラルネットワーク3
をパターン学習装置2に入力してニューラルネットワー
ク3を学習させる。 この操作はパターン記述に指定されたすべてのパターン
をパターン分別装置1が分別できるようになるまで続け
られる。このようにして指定されたパターンを分別でき
るニューラルネットワーク3が自動生成される。 なお、上記実施例ではニューラルネットワーク3は記憶
装置、パターン分別装置1とパターン学習装置2はマイ
クロプロセッサなどの計算機構として別々に実現されて
いたが、ニューラルネットワーク3の各ユニット10が
メモリとマイクロプロセッサを持ち合わせたようなマル
チマイクロプロセッサなどの並列計算機を用いても同様
の効果が期待できる。
、第5図と同一の部分は同一の符号をもって図示した第
1図において、8はパターン記述変換装置、9はパター
ン記述である。入力信号4の正規化情報7と第5図に示
す入力信号との相違点は、オンライン記憶化されている
ことにある。 第1図のパターン記述9は、第3図に示すように、人力
信号4の特徴を指定した変数宣言9Aと、パターンの特
徴を指定したスケルトン宣言9Bとからなる。変数宣言
9Aは入力信号15を表現する変数名と人力信号15が
とりうる値の制限範囲を指定した制限とからなる。制限
はたとえば、第4図に示したような規則にもとづいてい
る。ただし制限Aは一意的制限Bと集合的制限Cとに分
けられる。集合的制限は外延的表現りと内包的表現Eと
に分けられる。そして例えば 変数1=・5.2: 変数2 : enum(2,4,8);変数3:〉・1
63.2.< 611.28;のように書かれる。各式
の意味は順に「変数1の値は5.2でなければならない
。」 「変数2の値は2.4.8のいづれかでなければ
ならない。」 「変数3の値は163.2以上で611
.28未満である。」これらを順にB−一意的制限D外
延的表現、E内包的表現と呼ぶことにする。スケルトン
宣言9Bとは先に宣言された変数の値に対して満足され
るべき条件を付加することにより認識すべきパターンの
特徴を記述したものである。スケルトンは分別すべきパ
ターンに1対1に対応して宣言される。 スケルトン宣言9Bは第4図に示したように変数名とそ
の値に対する制限、さらに複数の変数間で満足されるべ
き条件を示した制約からなる。制限は先と同様の手法で
指定される。制約は例えば第4図に示したような規則に
したがって指定される。 制約中の論理式とは変数間で満足されるべき条件を表し
た、真と偽の2値をもつ式である。これは例えば double(変数1.変数2)へND変数2==8−
>変数2==4;変数1 >= 100 OR変数2<
= 3.3<−>変数3・・1.0;のように書かれ、
順に「変数1の値の2倍が変数2の値であり、かつ変数
2の値が8であるなら変数1の値は4である。」 「変
数1が100以上であるかまたは変数2が3.3以下で
あることは変数3が1.0であることと等価である。」
という意味である。 次に第1図の動作について説明する。まず従来のパター
ン分別・学習装置ではニューラルネットワーク3の各結
合11の重みWの初期値は任意の値を設定しているが、
本方式ではパターン分別・学習装置の使用者がパターン
記述9に入力信号15から分別すべきパターンの特徴を
スケルトンとして記述しておきこれをもとにパターン記
述変換装置8がニューラルネットワーク3の各結合の重
みの初期値を設定する。その後、入力信号4がパターン
分別装置1に与えられ、パターン分別装置1はニューラ
ルネットワーク3を用いてこの入力信号4を分別する。 さらに、もしパターン記述9に不備があって使用者の意
図にそくわない分別が行われたときは、使用者はパター
ン学習装置2にニューラルネットワーク3と望ましい出
力を与えニューラルネットワーク3をトレーニングする
。 パターン記述変換装置8は入力信号4の正規化情報7と
ニューラルネットワーク3の構造および各結合の重みを
生成する。入力信号4の正規化情報7は先の変数の制限
にもとづいて生成される。 一意的制限Bの場合は入力信号4は[0,1)の範囲中
の一定値に正規化される。外延的表現りの場合は[0,
1)の範囲中の離散した値に対応づけられて正規化され
る。したがって、これら2つの場合には制限として与え
られた値とそれに対応する正規化値との組が正規化情報
として出力される。内包的表現Eの場合には 正規化値=(入力値−最小値)/最大値の計算式が正規
化情報7として出力される。この正規化情報7はパター
ン分別装置1が入力信号4を正規化するための手段とし
てオンライン的に用いられる。ネットワークについては
第2図に示すように入力層12.中間層13.出力層1
4の3層からできているものと仮定し、パターン記述変
換装置8はニューラルネットワーク3のユニット10と
各結合11の重みを生成する。入力層12中の各ユニッ
ト10はパターン記述で指定された変数1つ1つに対応
するものとして、入力層12中のユニット10は変数の
数だけつくられる。出力層14中のユニット10の数は
分別すべきパターンの数だけ、すなわちスケルトンの数
だけ用意される。中間層13のユニット数は出力層14
のユニット数をNとして logzN≦X < 10gz (N + 1 )を満
足する整数Xに設定される。これらのユニット間の結合
の重みは全く任意に設定される。次にパターン記述変換
装置8はスケルトンによって指定された制限・制約を満
たすような例題を発生させる。すなわち、制限が指定さ
れた変数に対してはその制限を満足するような値を、制
限が指定されていない変数に対しては全く任意な値を設
定し、さらにこれらのうち制約を満足するものだけを取
り出す。このようにしてできた例題をパターン記述変換
装置8はパターン分別装置1に与え出力信号16を計算
させる。、さらに、パターン記述変換装置8はこの出力
信号16と望ましい出力6、ニューラルネットワーク3
をパターン学習装置2に入力してニューラルネットワー
ク3を学習させる。 この操作はパターン記述に指定されたすべてのパターン
をパターン分別装置1が分別できるようになるまで続け
られる。このようにして指定されたパターンを分別でき
るニューラルネットワーク3が自動生成される。 なお、上記実施例ではニューラルネットワーク3は記憶
装置、パターン分別装置1とパターン学習装置2はマイ
クロプロセッサなどの計算機構として別々に実現されて
いたが、ニューラルネットワーク3の各ユニット10が
メモリとマイクロプロセッサを持ち合わせたようなマル
チマイクロプロセッサなどの並列計算機を用いても同様
の効果が期待できる。
この発明は以上説明したとおり、予め指定されたパター
ンを自動的にパターン分別装置で分別できるように予め
ニューラルネットワークにパターンを記憶させておき、
そのパターンをパターン記述変換装置によって学習させ
ておくので、使用者が望ましい出力をパターン学習装置
に入力してやる必要もなくニューラルネットワークの重
みを学習させる必要がないという効果がある。また、こ
の発明にはパターン学習装置も付加されているので、パ
ターン記述に不備があった場合でもニューラルネットワ
ークの使用時にこれを使用者が修正して行くことができ
る。さらに、パターン記述から抽出された正規化情報が
オンライン記憶化されているのでパターン分別のさいの
入力信号の正規化も自動化できるという効果がある。
ンを自動的にパターン分別装置で分別できるように予め
ニューラルネットワークにパターンを記憶させておき、
そのパターンをパターン記述変換装置によって学習させ
ておくので、使用者が望ましい出力をパターン学習装置
に入力してやる必要もなくニューラルネットワークの重
みを学習させる必要がないという効果がある。また、こ
の発明にはパターン学習装置も付加されているので、パ
ターン記述に不備があった場合でもニューラルネットワ
ークの使用時にこれを使用者が修正して行くことができ
る。さらに、パターン記述から抽出された正規化情報が
オンライン記憶化されているのでパターン分別のさいの
入力信号の正規化も自動化できるという効果がある。
第1図は本発明の一実施例によるパターン分別・学習装
置の構成図、第2図は一般的なニューラルネットワーク
の構成図、第3図はこの発明によるパターン記述の構成
図、第4図は第3図のパターン記述のための規則を示し
た説明図、第5図は従来のパターン分別・学習装置の構
成図、第6図は第5図の動作フローチャートである。 図において、1はパターン分別装置、2はパターン学習
装置、3はニューラルネットワーク、8はパターン記述
変換装置である。第1図、第5図において、楕円は処理
を行う各ブロックを、各ブロックに左から入る矢印はそ
のブロックに対する入力を、下から入る矢印はそのブロ
ックが自己の処理の中で使用する手段を、右から出る矢
印はそのブロックの出力を、矢印機に付けられた枠はそ
の矢印によって選ばれる情報の内容をそれぞれ表してい
る。 なお、各図中同一符号は同一または相当部分を示す。 ii4図 手 続 補 正 2、発明の名称 パターン分別・学習装置 3、補正をする者 代表者 dブ 書 昭和 岐 寸 (自 発) 631つ19 年“月°日 哉 6、補正の内容 (1)明細書第2頁第1O行目のrof8thJとある
のをrof the 8thJと補正する。 (2)明細書第2頁第11行目のr ppl−pp12
Jとあるのをrpp、1−12 Jと補正する。 (3)明細書第3頁第20行目から第4頁第1行目にか
けて「人力値をX、出力値をy、」とあるのをru+の
出力値をy+、Jと補正する。 (4)明細書第4頁第8行目の r l / (1+ exp(xl) Jとあるのをr
1 / (1+exp(−に))」と補正する6(5
)明細書第5頁第13行目から同頁筒14行目にかけて
「誤差を山登り法」とあるのを「差を誤差とし、山登り
法」と補正する。 (6)明細書筒5亘第14の行目の「最小」とあるのを
「誤差を最小」と補正する。 (7)明細書第9頁第16行目の「学とが」とあるのを
「学習とが」と補正する。 (8)明細書第11頁第14行目から同頁筒15行目に
かけて「生成するようにし、」とあるのを「生成し、さ
らに、」と補正する。 (9)明細書第11頁第16行目の「正規化情報の両方
を自動的に」とあるのを「正規化情報を自動的に」と補
正する。 (10)明細書第11頁第19行目の「生成するように
」とあるのを「生成・修正するようにJと補正する。 (11)明細書第13頁第16行目の「いづれかで」と
あるのを「いずれかで」と補正する。 (12)明細書第17頁第1行目の[ユニット数は出力
層」とあるのを[ユニット数は5例えば。 出力層」と補正する。 以 上
置の構成図、第2図は一般的なニューラルネットワーク
の構成図、第3図はこの発明によるパターン記述の構成
図、第4図は第3図のパターン記述のための規則を示し
た説明図、第5図は従来のパターン分別・学習装置の構
成図、第6図は第5図の動作フローチャートである。 図において、1はパターン分別装置、2はパターン学習
装置、3はニューラルネットワーク、8はパターン記述
変換装置である。第1図、第5図において、楕円は処理
を行う各ブロックを、各ブロックに左から入る矢印はそ
のブロックに対する入力を、下から入る矢印はそのブロ
ックが自己の処理の中で使用する手段を、右から出る矢
印はそのブロックの出力を、矢印機に付けられた枠はそ
の矢印によって選ばれる情報の内容をそれぞれ表してい
る。 なお、各図中同一符号は同一または相当部分を示す。 ii4図 手 続 補 正 2、発明の名称 パターン分別・学習装置 3、補正をする者 代表者 dブ 書 昭和 岐 寸 (自 発) 631つ19 年“月°日 哉 6、補正の内容 (1)明細書第2頁第1O行目のrof8thJとある
のをrof the 8thJと補正する。 (2)明細書第2頁第11行目のr ppl−pp12
Jとあるのをrpp、1−12 Jと補正する。 (3)明細書第3頁第20行目から第4頁第1行目にか
けて「人力値をX、出力値をy、」とあるのをru+の
出力値をy+、Jと補正する。 (4)明細書第4頁第8行目の r l / (1+ exp(xl) Jとあるのをr
1 / (1+exp(−に))」と補正する6(5
)明細書第5頁第13行目から同頁筒14行目にかけて
「誤差を山登り法」とあるのを「差を誤差とし、山登り
法」と補正する。 (6)明細書筒5亘第14の行目の「最小」とあるのを
「誤差を最小」と補正する。 (7)明細書第9頁第16行目の「学とが」とあるのを
「学習とが」と補正する。 (8)明細書第11頁第14行目から同頁筒15行目に
かけて「生成するようにし、」とあるのを「生成し、さ
らに、」と補正する。 (9)明細書第11頁第16行目の「正規化情報の両方
を自動的に」とあるのを「正規化情報を自動的に」と補
正する。 (10)明細書第11頁第19行目の「生成するように
」とあるのを「生成・修正するようにJと補正する。 (11)明細書第13頁第16行目の「いづれかで」と
あるのを「いずれかで」と補正する。 (12)明細書第17頁第1行目の[ユニット数は出力
層」とあるのを[ユニット数は5例えば。 出力層」と補正する。 以 上
Claims (1)
- 入力信号と出力信号の間に入力層、中間層及び出力層で
結合してなるニューラルネットワークと、前記入力信号
中にいかなるパターンが存在するかを示す出力信号を前
記ニューラルネットワークを用いて生成するパターン分
別装置と、前記パターン分別装置が望ましい出力信号を
出力しなかったときに該望ましい出力を外部より受け取
って同一の入力信号が入力された時には前記望ましい出
力信号が得られるようにニューラルネットワークに学習
させるパターン学習装置と、前記パターンの判別すべき
特徴のパターン記述を解釈し、これよりニューラルネッ
トワークを自動的に生成するパターン記述変換装置とか
らなるパターン分別・学習装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP63259422A JPH02108179A (ja) | 1988-10-17 | 1988-10-17 | パターン分別・学習装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP63259422A JPH02108179A (ja) | 1988-10-17 | 1988-10-17 | パターン分別・学習装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH02108179A true JPH02108179A (ja) | 1990-04-20 |
Family
ID=17333879
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP63259422A Pending JPH02108179A (ja) | 1988-10-17 | 1988-10-17 | パターン分別・学習装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH02108179A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03279178A (ja) * | 1990-03-28 | 1991-12-10 | Mitsubishi Electric Corp | エレベータ制御装置 |
JPH0432472A (ja) * | 1990-05-29 | 1992-02-04 | Mitsubishi Electric Corp | エレベータ制御装置 |
JPH0439277A (ja) * | 1990-05-31 | 1992-02-10 | Mitsubishi Electric Corp | エレベータ制御装置 |
JPH0449183A (ja) * | 1990-06-19 | 1992-02-18 | Mitsubishi Electric Corp | エレベータ制御装置 |
-
1988
- 1988-10-17 JP JP63259422A patent/JPH02108179A/ja active Pending
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03279178A (ja) * | 1990-03-28 | 1991-12-10 | Mitsubishi Electric Corp | エレベータ制御装置 |
JP2573715B2 (ja) * | 1990-03-28 | 1997-01-22 | 三菱電機株式会社 | エレベータ制御装置 |
JPH0432472A (ja) * | 1990-05-29 | 1992-02-04 | Mitsubishi Electric Corp | エレベータ制御装置 |
JP2573722B2 (ja) * | 1990-05-29 | 1997-01-22 | 三菱電機株式会社 | エレベータ制御装置 |
JPH0439277A (ja) * | 1990-05-31 | 1992-02-10 | Mitsubishi Electric Corp | エレベータ制御装置 |
JP2573723B2 (ja) * | 1990-05-31 | 1997-01-22 | 三菱電機株式会社 | エレベータ制御装置 |
JPH0449183A (ja) * | 1990-06-19 | 1992-02-18 | Mitsubishi Electric Corp | エレベータ制御装置 |
JP2573726B2 (ja) * | 1990-06-19 | 1997-01-22 | 三菱電機株式会社 | エレベータ制御装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Hajela et al. | Neurobiological computational models in structural analysis and design | |
JP3329806B2 (ja) | ニューラルネット構築装置 | |
Lin et al. | Complexity results on learning by neural nets | |
CN114743020A (zh) | 一种结合标签语义嵌入和注意力融合的食物识别方法 | |
Jumanov et al. | Optimization of identification of images of micro-objects taking into account systematic error based on neural networks | |
JPH02108179A (ja) | パターン分別・学習装置 | |
Vaughn | Interpretation and knowledge discovery from the multilayer perceptron network: opening the black box | |
Kerlirzin et al. | Theoretical investigation of the robustness of multilayer perceptrons: analysis of the linear case and extension to nonlinear networks | |
Wang | Artificial neural networks versus natural neural networks: A connectionist paradigm for preference assessment | |
Poh | A neural network approach for marketing strategies research and decision support | |
Jagielska | Linguistic rule extraction from neural networks for descriptive data mining | |
CN116467930A (zh) | 一种基于Transformer的结构化数据通用建模方法 | |
Kulkarni et al. | Fuzzy neural network models for supervised classification: multispectral image analysis | |
Jamal | Neural network and cellular manufacturing | |
Pedrycz | Fuzzy logic in development of fundamentals of pattern recognition | |
Cho | Parallel, self-organizing, hierarchical neural networks with fuzzy input signal representation, competitive learning and safe rejection schemes | |
Parekh et al. | Pruning strategies for the MTiling constructive learning algorithm | |
Biennier et al. | Integration of information and knowledge from the engineering activity to the workshop control | |
Chin et al. | Fuzzy logic and neural networks | |
Williams et al. | Improving classification performance in the bumptree network by optimising topology with a genetic algorithm | |
JPH05342255A (ja) | 自然言語の構文情報を利用した文書検索方法および文書検索システム | |
Peralta et al. | A proposal of neural networks with intermediate outputs | |
Botta et al. | Learning quantitative features in a symbolic environment | |
Koutroumbas et al. | Nearest neighbor pattern classification neural networks | |
Lano et al. | Architectural Design for Machine Learning Systems |