JPH02238560A - 自己拡張形ニユーラル・ネットワーク - Google Patents
自己拡張形ニユーラル・ネットワークInfo
- Publication number
- JPH02238560A JPH02238560A JP1060329A JP6032989A JPH02238560A JP H02238560 A JPH02238560 A JP H02238560A JP 1060329 A JP1060329 A JP 1060329A JP 6032989 A JP6032989 A JP 6032989A JP H02238560 A JPH02238560 A JP H02238560A
- Authority
- JP
- Japan
- Prior art keywords
- self
- learning
- neural network
- layer
- node
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013528 artificial neural network Methods 0.000 title claims description 104
- 230000013016 learning Effects 0.000 claims description 200
- 230000002250 progressing effect Effects 0.000 claims description 10
- 238000010586 diagram Methods 0.000 description 17
- 238000004364 calculation method Methods 0.000 description 14
- 238000000034 method Methods 0.000 description 8
- 230000008878 coupling Effects 0.000 description 4
- 238000010168 coupling process Methods 0.000 description 4
- 238000005859 coupling reaction Methods 0.000 description 4
- 230000003111 delayed effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 101100345589 Mus musculus Mical1 gene Proteins 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24137—Distances to cluster centroïds
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Feedback Control In General (AREA)
- Image Analysis (AREA)
- Devices For Executing Special Programs (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
め要約のデータは記録されません。
Description
【発明の詳細な説明】
〈産業」二の利用分野〉
この発明は、学習結果に基づいて自己拡張することがで
きる自己拡張形ニューラル・ネットワークに関する。
きる自己拡張形ニューラル・ネットワークに関する。
〈従来の技術〉
従来、誤差逆伝播(バソクプ口パゲーション)方式によ
って学習する多層パーセプトロン型ニク−ーラル・ネッ
トワークがある。この多層ノくーセプトロン型ニューラ
ル・ネットワークは、夫々ユニソトを有する入力層.中
間層および出力層から成り、各層のユニッl・間はンナ
プス結合によって結合さ力層と出力層の2層から成り、
出力層には同一カテゴリを表ず複数の出力ノードが存在
ずる。そして、この一つのカテゴリを表す出力ノード数
によってカテゴリ識別性能が左右される。そのため、つ
のカテゴリを表す出力ノード数は予め予想される必要数
よりも多く設定されるのが一般的である。
って学習する多層パーセプトロン型ニク−ーラル・ネッ
トワークがある。この多層ノくーセプトロン型ニューラ
ル・ネットワークは、夫々ユニソトを有する入力層.中
間層および出力層から成り、各層のユニッl・間はンナ
プス結合によって結合さ力層と出力層の2層から成り、
出力層には同一カテゴリを表ず複数の出力ノードが存在
ずる。そして、この一つのカテゴリを表す出力ノード数
によってカテゴリ識別性能が左右される。そのため、つ
のカテゴリを表す出力ノード数は予め予想される必要数
よりも多く設定されるのが一般的である。
ここで、上記ノード(ユニット)は、他のノード(ユニ
ット)からの入力を受け取る入力部と、入力されたデー
タを所定のアルゴリズムによって演算する演算部と、演
算した結果を出力ずる出力部とから成る。
ット)からの入力を受け取る入力部と、入力されたデー
タを所定のアルゴリズムによって演算する演算部と、演
算した結果を出力ずる出力部とから成る。
く発明が解決しようとする課題〉
上述のように、学習によってニューラル・ネツ1・ワー
クの構造を設定する場合には、多層パーセプトロン型ニ
ューラル・ネットワークの中間層の層数や中間層のユニ
ット数、あるいは、コホーネン型ニューラル・ネッ1・
ワークの出力層のノード数はいずれも、予想必要数より
も多く設定されるのが一般的である。
クの構造を設定する場合には、多層パーセプトロン型ニ
ューラル・ネットワークの中間層の層数や中間層のユニ
ット数、あるいは、コホーネン型ニューラル・ネッ1・
ワークの出力層のノード数はいずれも、予想必要数より
も多く設定されるのが一般的である。
しかしながら、上記ニューラル・ネソl・ワークのよう
に層の数や各層に含まれるノー}・(ユニット)数を多
く設定すると、各ノード(ユニット)間の結合が多くな
り、而のノード(ユニット)からの信号を所定のアルゴ
リズムによって変換して次のノード(ユニット)に出力
する際の計算量が多くなり、学習動作あるいは識別動作
が遅くなるという問題かある。ところが、層の数や各層
に含まれるユニット数を必要数より少なく設定すると、
学習データに対して十分に学習しない(すなわち、学習
が収束しなしり。また、ノード間の重み関数(エネルギ
ー関数)の局所最適値に陥って学習が収束しない場合が
生じるという問題もある。
に層の数や各層に含まれるノー}・(ユニット)数を多
く設定すると、各ノード(ユニット)間の結合が多くな
り、而のノード(ユニット)からの信号を所定のアルゴ
リズムによって変換して次のノード(ユニット)に出力
する際の計算量が多くなり、学習動作あるいは識別動作
が遅くなるという問題かある。ところが、層の数や各層
に含まれるユニット数を必要数より少なく設定すると、
学習データに対して十分に学習しない(すなわち、学習
が収束しなしり。また、ノード間の重み関数(エネルギ
ー関数)の局所最適値に陥って学習が収束しない場合が
生じるという問題もある。
そこで、この発明の目的は、学習時において必要に応じ
てネットワーク構造を自己拡張することによって、中間
層の層数や各層内のノード(ユニット)数を必要最小限
の数に設定して学背時問および識別時間を短縮し、学習
が収束しない場合は収束に向かうようにして学習を効率
良くできる自己拡張形ニューラル・ネットワークを提供
することにある。
てネットワーク構造を自己拡張することによって、中間
層の層数や各層内のノード(ユニット)数を必要最小限
の数に設定して学背時問および識別時間を短縮し、学習
が収束しない場合は収束に向かうようにして学習を効率
良くできる自己拡張形ニューラル・ネットワークを提供
することにある。
?
トワーク構造によって学習を継続することを特徴として
いる。
いる。
また、この発明の自己拡張形ニューラル・ネットワーク
における上記ニューラル・ネットワークは、入力層7中
間層および出力層から成る多層二,ーラル・ネットワー
クであって、上記自己拡張部がネットワーク構造を自己
拡張する際に、上記新たなノードを上記中間層内に設け
るようになっていることが望ましい。
における上記ニューラル・ネットワークは、入力層7中
間層および出力層から成る多層二,ーラル・ネットワー
クであって、上記自己拡張部がネットワーク構造を自己
拡張する際に、上記新たなノードを上記中間層内に設け
るようになっていることが望ましい。
また、この発明の自己拡張形ニューラル・ネットワーク
における上記ニューラル・ネットワークは、出力層の複
数のノードが同一のカテゴリを表ずニューラル・ネット
ワークであって、上記自己拡張部がネットワーク構造を
自己拡張する際に、上記新たなノードを上記出力層内に
設けるようになっていることが望ましい。
における上記ニューラル・ネットワークは、出力層の複
数のノードが同一のカテゴリを表ずニューラル・ネット
ワークであって、上記自己拡張部がネットワーク構造を
自己拡張する際に、上記新たなノードを上記出力層内に
設けるようになっていることが望ましい。
また、この発明の自己拡張形ニューラル・ネットワーク
における上記ニューラル・ネットワークは、入力層,中
間層および出力層から成る多層ニューラル・ネットワー
クであって、」−記自己拡張部〈課題を解決するだめの
手段〉 上記目的を達成するため、この発明の自己拡張形ニュー
ラル・ネットワークは、学習に際して、入力された学習
データとノード間結合重みの値を用いて出力データを求
め、この出力データに基づいて学習の収束判定を行い、
その結果学習が収束していない場合には上記ノード間結
合重みの値を所定の規則に従って更新するニューラル・
ネットワークにおいて、上記出力データとノード間結合
重みの値に基づいて学習が進行しているか否かを判定し
、学習が進行していないと判定した場合は、ネットワー
ク構造の拡張を指示する拡張指示信号を出力する学習進
行判定部と、上記学習進行判定部からの拡張指示信号に
従って新たなノードを設け、この新たに設けられたノー
ドのノード間結合の状態および新たに設けられたノード
間結合のノーF間結合重みの初期値を設定することによ
ってネットワークの構造を自己拡張する自己拡張部を設
けて、上記自己拡張部によってネソトワーク構造が自己
拡張された場合は、自己拡張されたネツ8一 がネットワーク構造を自己拡張する際に、上記新たなノ
ードで新たな中間層を構成し、この新たな中間層を上記
中間層に付加して設けるようになっていることが望まし
い。
における上記ニューラル・ネットワークは、入力層,中
間層および出力層から成る多層ニューラル・ネットワー
クであって、」−記自己拡張部〈課題を解決するだめの
手段〉 上記目的を達成するため、この発明の自己拡張形ニュー
ラル・ネットワークは、学習に際して、入力された学習
データとノード間結合重みの値を用いて出力データを求
め、この出力データに基づいて学習の収束判定を行い、
その結果学習が収束していない場合には上記ノード間結
合重みの値を所定の規則に従って更新するニューラル・
ネットワークにおいて、上記出力データとノード間結合
重みの値に基づいて学習が進行しているか否かを判定し
、学習が進行していないと判定した場合は、ネットワー
ク構造の拡張を指示する拡張指示信号を出力する学習進
行判定部と、上記学習進行判定部からの拡張指示信号に
従って新たなノードを設け、この新たに設けられたノー
ドのノード間結合の状態および新たに設けられたノード
間結合のノーF間結合重みの初期値を設定することによ
ってネットワークの構造を自己拡張する自己拡張部を設
けて、上記自己拡張部によってネソトワーク構造が自己
拡張された場合は、自己拡張されたネツ8一 がネットワーク構造を自己拡張する際に、上記新たなノ
ードで新たな中間層を構成し、この新たな中間層を上記
中間層に付加して設けるようになっていることが望まし
い。
また、この発明の自己拡張形ニューラル・ネットワーク
における上記ニューラル・ネットワークは、入力層,中
間層および出力層から成る多層ニューラル・ネットワー
クであって、上記自己拡張部がネットワーク構造を自己
拡張する際に、上記新たなノードで新たな出力層を構成
し、この新たな出力層を上記出力層の上層として設ける
と共に、上記出力層を新たな中間層として上記中間層に
付加して設けるようになっていることが望ましい。
における上記ニューラル・ネットワークは、入力層,中
間層および出力層から成る多層ニューラル・ネットワー
クであって、上記自己拡張部がネットワーク構造を自己
拡張する際に、上記新たなノードで新たな出力層を構成
し、この新たな出力層を上記出力層の上層として設ける
と共に、上記出力層を新たな中間層として上記中間層に
付加して設けるようになっていることが望ましい。
また、この発明の自己拡張形ニューラル・ネットワーク
における上記ニューラル・ネットワークは、出力層の複
数のノードが同一のカテゴリに割り付けられて教師有り
学習によって学習が行われるニューラル・ネットワーク
であって、上記自己拡張部がネットワーク構造を自己拡
張する際に、上記新たなノードを上記出力層内に設け、
その際に最も誤りの程度の大きな学習データの各要素の
値を、その学習データが属するカテゴリに新たに割り付
けられたノードのノード間結合重みの各要素の初期値と
して設定ずる.Lうになっていることが望ましい。
における上記ニューラル・ネットワークは、出力層の複
数のノードが同一のカテゴリに割り付けられて教師有り
学習によって学習が行われるニューラル・ネットワーク
であって、上記自己拡張部がネットワーク構造を自己拡
張する際に、上記新たなノードを上記出力層内に設け、
その際に最も誤りの程度の大きな学習データの各要素の
値を、その学習データが属するカテゴリに新たに割り付
けられたノードのノード間結合重みの各要素の初期値と
して設定ずる.Lうになっていることが望ましい。
く作用〉
学習に際して、学習データが入力されると、この入力さ
れた学習データとノード間結合重みの値を用いて出力デ
ータが求められる。そして、この出力データに基づいて
学習が収束していないと判定された場合は、上記ノード
間結合重みの値が所定の規則に従って更新される。その
際に、学習進行判定部によって、上記出力データとノー
ド間結合重みの値に基づいて学習が進行しているか否か
が判定される。その結果、学習が進行していないと判定
された場合は、ネットワーク構造の拡張を指示する拡張
指示信号が出力される。そうすると、自己拡張部によっ
て、上記拡張指示信号に従って新たなノードが設けられ
、この新たに設けられたノードのノード間結合の状態お
よび新たに設けら1I 力層の複数のノードが同一のカテゴリを表ずニューラル
・ネットワークであって、上記自己拡張部がネットワー
ク構造を自己拡張する際に、上記新たなノードを上記出
力層内に設けるようになっているので、上記出力層内の
ノード数を増加することができる。したがって、当初上
記出力層内のノード数を予想される数より少なめに設定
すれば、出力層内のノーF数を必要最小限の数に設定す
ることができる。
れた学習データとノード間結合重みの値を用いて出力デ
ータが求められる。そして、この出力データに基づいて
学習が収束していないと判定された場合は、上記ノード
間結合重みの値が所定の規則に従って更新される。その
際に、学習進行判定部によって、上記出力データとノー
ド間結合重みの値に基づいて学習が進行しているか否か
が判定される。その結果、学習が進行していないと判定
された場合は、ネットワーク構造の拡張を指示する拡張
指示信号が出力される。そうすると、自己拡張部によっ
て、上記拡張指示信号に従って新たなノードが設けられ
、この新たに設けられたノードのノード間結合の状態お
よび新たに設けら1I 力層の複数のノードが同一のカテゴリを表ずニューラル
・ネットワークであって、上記自己拡張部がネットワー
ク構造を自己拡張する際に、上記新たなノードを上記出
力層内に設けるようになっているので、上記出力層内の
ノード数を増加することができる。したがって、当初上
記出力層内のノード数を予想される数より少なめに設定
すれば、出力層内のノーF数を必要最小限の数に設定す
ることができる。
また、上記自己拡張形ニューラル・ネットワークにおけ
る上記ニューラル・ネットワークは、入力層,中間層お
よび出力層から成る多層ニューラル・ネットワークであ
って、上記自己拡張部がネットワーク構造を自己拡張す
る際に、上記新たなノードで新たな中間層を構成し、こ
の新たな中間層を上記中間層に付加して設けるようにな
っているので、上記中間層の暦数を増加するこ七ができ
る。
る上記ニューラル・ネットワークは、入力層,中間層お
よび出力層から成る多層ニューラル・ネットワークであ
って、上記自己拡張部がネットワーク構造を自己拡張す
る際に、上記新たなノードで新たな中間層を構成し、こ
の新たな中間層を上記中間層に付加して設けるようにな
っているので、上記中間層の暦数を増加するこ七ができ
る。
したがって、当初上記中間層の層数を予想される数より
少なめに設定すれば、中間層の層数を必要最小限の数に
設定することができる。
少なめに設定すれば、中間層の層数を必要最小限の数に
設定することができる。
れたノード間結合のノード間結合重みの初期値が設定さ
れてネットワークの構造が自己拡張される。
れてネットワークの構造が自己拡張される。
こうして、ネットワーク構造が自己拡張された後は、自
己拡張されたネットワーク構造によって学習が続行され
るのである。したがって、当初ノード数を予想される数
より少なめに設定すれば、ノード数を必要最小限の数に
設定することができる。
己拡張されたネットワーク構造によって学習が続行され
るのである。したがって、当初ノード数を予想される数
より少なめに設定すれば、ノード数を必要最小限の数に
設定することができる。
また、上記自己拡張形ニューラル・ネットワークにおけ
る上記ニューラル・ネットワークは、入力層,中間層お
よび出力層から成る多層ニューラル・ネットワークであ
って、上記自己拡張部がネットワーク構造を自己拡張す
る際に、上記新たなノードが上記中間層内に設けられる
ようになっているので、上記中間層内のノード数を増加
することができる。したがって、当初上記中間層内のノ
ード数を予想される数より少なめに設定すれば、中間層
内のノード数を必要最小限の数に設定することができる
。
る上記ニューラル・ネットワークは、入力層,中間層お
よび出力層から成る多層ニューラル・ネットワークであ
って、上記自己拡張部がネットワーク構造を自己拡張す
る際に、上記新たなノードが上記中間層内に設けられる
ようになっているので、上記中間層内のノード数を増加
することができる。したがって、当初上記中間層内のノ
ード数を予想される数より少なめに設定すれば、中間層
内のノード数を必要最小限の数に設定することができる
。
また、上記自己拡張形ニューラル・ネットワークにおけ
る上記ニューラル・ネットワークは、出また、上記自己
拡張形ニューラル・ネットワークにおける上記ニューラ
ル・ネットワークは、入力層,中間層および出力層から
成る多層ニューラル・ネットワークであって、上記自己
拡張部がネソトワーク構造を自己拡張する際に、上記新
たなノードで新たな出力層を構成し、この新たな出力層
を上記出力層の上層として設けると共に、上記出力層を
新たな中間層として上記中間層に付加して設けるように
なっているので、上記中間層の層数を増加することがで
きる。したがって、当初上記中間層の層数を予想される
数より少なめに設定すれば、中間層の層数を必要最小限
の数に設定することができる。
る上記ニューラル・ネットワークは、出また、上記自己
拡張形ニューラル・ネットワークにおける上記ニューラ
ル・ネットワークは、入力層,中間層および出力層から
成る多層ニューラル・ネットワークであって、上記自己
拡張部がネソトワーク構造を自己拡張する際に、上記新
たなノードで新たな出力層を構成し、この新たな出力層
を上記出力層の上層として設けると共に、上記出力層を
新たな中間層として上記中間層に付加して設けるように
なっているので、上記中間層の層数を増加することがで
きる。したがって、当初上記中間層の層数を予想される
数より少なめに設定すれば、中間層の層数を必要最小限
の数に設定することができる。
また、上記自己拡張形ニューラル・ネットワークにおけ
る上記ニューラル・ネットワークは、出力層の複数のノ
ードが同一のカテゴリに割り付けられて教師有り学習に
よって学習が行われるニューラル・ネットワークであっ
て、上記自己拡張部がネットワーク構造を自己拡張する
際に、上記新たなノードを上記出力層内に設け、その際
に最ム誤りの程度の大きな学習データの各要素の値を、
その学習データが属するカテゴリに新たに割りイ」けら
れたノードのノード間結合重みの各要素の初期値として
設定するようになっているので、上記出ノノ層内に新た
なノードを設けることができると共に、最も誤りの程度
の大きな学習データに対して正しいカテゴリ識別結果が
得られるように、上記出力層内に新たに設けられたノー
ドのノード間結合重みの初期値が設定される。
る上記ニューラル・ネットワークは、出力層の複数のノ
ードが同一のカテゴリに割り付けられて教師有り学習に
よって学習が行われるニューラル・ネットワークであっ
て、上記自己拡張部がネットワーク構造を自己拡張する
際に、上記新たなノードを上記出力層内に設け、その際
に最ム誤りの程度の大きな学習データの各要素の値を、
その学習データが属するカテゴリに新たに割りイ」けら
れたノードのノード間結合重みの各要素の初期値として
設定するようになっているので、上記出ノノ層内に新た
なノードを設けることができると共に、最も誤りの程度
の大きな学習データに対して正しいカテゴリ識別結果が
得られるように、上記出力層内に新たに設けられたノー
ドのノード間結合重みの初期値が設定される。
〈実施例〉
以下、この発明を図示の実施例により詳細に説明する。
第1図はこの発明の自己拡張ニューラル・ネットワーク
のブロック図である。このブロック図における入ノJ部
1,演算部2および出力部3は、バックプロパケーソヨ
ンによって学習する多層バーセプトロン型ニューラル・
ネットワークの場合には次のように考えればよい。すな
わち、入力部1は入力層におけるノードの入力部であり
、演算部2は入力層のノードから中間層の最上層のノー
ドま出力する。そうすると、演算部2は所定のアルゴリ
ズムに従って新たなノード間結合重みの値を算出して、
ノード間結合重み格納部4の内容を更新する。一方、学
習か収束した場合には演算郎2に対してノード間結合重
みの値を更新する指示信号を出力せず、学習を終了する
のである。第1図においては省略しているが、教師有り
学習の場合には収束判定部6に教師データが入力され、
収束判定部6は出力部3からの出力データと上記教師デ
ータとに基づいて学習の収束を判定するのである。
のブロック図である。このブロック図における入ノJ部
1,演算部2および出力部3は、バックプロパケーソヨ
ンによって学習する多層バーセプトロン型ニューラル・
ネットワークの場合には次のように考えればよい。すな
わち、入力部1は入力層におけるノードの入力部であり
、演算部2は入力層のノードから中間層の最上層のノー
ドま出力する。そうすると、演算部2は所定のアルゴリ
ズムに従って新たなノード間結合重みの値を算出して、
ノード間結合重み格納部4の内容を更新する。一方、学
習か収束した場合には演算郎2に対してノード間結合重
みの値を更新する指示信号を出力せず、学習を終了する
のである。第1図においては省略しているが、教師有り
学習の場合には収束判定部6に教師データが入力され、
収束判定部6は出力部3からの出力データと上記教師デ
ータとに基づいて学習の収束を判定するのである。
上述のような学習過程において、学習進行判定部8は、
出力部3からの出力データ,収束判定部6からの判定結
果およびノード間結合重み格納部4からのノード間結合
重みの値を取り込んで、学習が進行しているか否かを判
定し、学習が進行しない場合にはニューラル・ネットワ
ークの構造を自己拡張する指示信号を自己拡張部7に出
力する。
出力部3からの出力データ,収束判定部6からの判定結
果およびノード間結合重み格納部4からのノード間結合
重みの値を取り込んで、学習が進行しているか否かを判
定し、学習が進行しない場合にはニューラル・ネットワ
ークの構造を自己拡張する指示信号を自己拡張部7に出
力する。
そうすると、後に詳述するように自己拡張部7は予め決
められた規則に従ってニューラル・ネットワークの構造
を拡張(所定の層内におけるノードでの演算部を一まと
めにして表現したものであり、出力部3は出力層におけ
る出力部である。
められた規則に従ってニューラル・ネットワークの構造
を拡張(所定の層内におけるノードでの演算部を一まと
めにして表現したものであり、出力部3は出力層におけ
る出力部である。
第1図において、学習時に際して学習サンプルのデータ
が入力郎Iに入力されて演算部2に送られる。そうする
と、演算部2は、学習制御部5の制御に従ってノード間
結合重み格納部4に格納されている各ノード間のノード
間結合重みの値を読み出し、上記学習データと各ノード
間結合重みの値から所定のアルゴリズムによって出力値
を算出し、算出された出力値を出力部3に送出する。そ
して、出力部3は入力された出力値から成る出力データ
を外部に出力する。
が入力郎Iに入力されて演算部2に送られる。そうする
と、演算部2は、学習制御部5の制御に従ってノード間
結合重み格納部4に格納されている各ノード間のノード
間結合重みの値を読み出し、上記学習データと各ノード
間結合重みの値から所定のアルゴリズムによって出力値
を算出し、算出された出力値を出力部3に送出する。そ
して、出力部3は入力された出力値から成る出力データ
を外部に出力する。
上記出力部3からの出力データが収束判定部6に入力さ
れる。そうすると、収束判定郎6は入力された出力デー
タに基づいて、学習が収束したか否かを判定する。そし
て、その判定結果を学習制御部5および学習進行判定部
8に出力する。学習制御部5は収束判定部6からの判定
結果に基づいて、学習が収束していない場合には演算部
2に対してノード間結合重みの値を更新する指示信号を
数の増加および中間層の層数の増加等)すると共に、増
設したノードに対応するノード間結合重みの値の初期値
を設定する。そして、学習制御部5および演算部2に対
して自己拡張したことを知らせる信号を出力し、新しく
設定したノード間結合重みの初期値をノード間結合重み
格納部4に出力する。
れる。そうすると、収束判定郎6は入力された出力デー
タに基づいて、学習が収束したか否かを判定する。そし
て、その判定結果を学習制御部5および学習進行判定部
8に出力する。学習制御部5は収束判定部6からの判定
結果に基づいて、学習が収束していない場合には演算部
2に対してノード間結合重みの値を更新する指示信号を
数の増加および中間層の層数の増加等)すると共に、増
設したノードに対応するノード間結合重みの値の初期値
を設定する。そして、学習制御部5および演算部2に対
して自己拡張したことを知らせる信号を出力し、新しく
設定したノード間結合重みの初期値をノード間結合重み
格納部4に出力する。
そうすると、ノード間結合重み格納部4は新しく設定さ
れたノード間結合重みの初期値を格納する。そして、次
の学習データが入力された場合には、演算部2は学習制
御部5の制御に従ってノード間結合重み格納部4に格納
された新しいノード間結合重みの値をも用いて、自己拡
張部7からの信号に基づいて新設ノードあるいは新設層
にまで演算範囲を広げて出力値の算出等を実行するので
ある。上記学習進行判定部8および自己拡張部7がこの
発明に係る主要部分である。
れたノード間結合重みの初期値を格納する。そして、次
の学習データが入力された場合には、演算部2は学習制
御部5の制御に従ってノード間結合重み格納部4に格納
された新しいノード間結合重みの値をも用いて、自己拡
張部7からの信号に基づいて新設ノードあるいは新設層
にまで演算範囲を広げて出力値の算出等を実行するので
ある。上記学習進行判定部8および自己拡張部7がこの
発明に係る主要部分である。
その際に、第I図においては省略しているが、教師有り
学習の場合には学習進行判定郎8に教師データが入力さ
れ、学習進行判定部8は収束判定部6からの判定結果、
出力部3からの出力値,ノード間結合重み格納部4から
のノード間結合重みの値および上記教師データとに基づ
いて学習の収束を判定するのである。
学習の場合には学習進行判定郎8に教師データが入力さ
れ、学習進行判定部8は収束判定部6からの判定結果、
出力部3からの出力値,ノード間結合重み格納部4から
のノード間結合重みの値および上記教師データとに基づ
いて学習の収束を判定するのである。
上記学習進行判定部8によって学習の進行の滞りを判定
する際には、以下に例示するような条件例を満たす場合
に学習の進行が滞っていると判定するのである。
する際には、以下に例示するような条件例を満たす場合
に学習の進行が滞っていると判定するのである。
条件例I
t回学習時におけるノード間結合重みの値と(En)回
学習時におけるノード間結合重みの値との変化量の絶対
値の総和の値が閾値未満である。
学習時におけるノード間結合重みの値との変化量の絶対
値の総和の値が閾値未満である。
条件例2
t回学習時におけるノード間結合重みの値と(tn)回
学習時におけるノード間結合重みの値との変化奄の二乗
和の値が閾値未満である。
学習時におけるノード間結合重みの値との変化奄の二乗
和の値が閾値未満である。
条件例3
t回学習時におけるノード間結合重みの値と(tn)回
学習時におけるノード間結合重みの値との変化量と、t
回学習時にお1づるノード間結合重み学習を行う条件に
あてはまる学習サンプルの数が閾値未満である。
学習時におけるノード間結合重みの値との変化量と、t
回学習時にお1づるノード間結合重み学習を行う条件に
あてはまる学習サンプルの数が閾値未満である。
条件例10
教師有り学習において、出力値と教師データの値との差
の変化量が閾値以」二である。
の変化量が閾値以」二である。
上記学習の進行の滞りを検出する際の条件例は、単独で
用いても幾つか組み合わせて用いてもよい。
用いても幾つか組み合わせて用いてもよい。
上記自己拡張形ニューラル・ネットワークは、学習時に
おいて目的とする出力値が得られず、かつ、学習の進行
が極端に滞っている状態になれば、自己拡張を行う。第
2図は自己拡張動作のフローチャートである。
おいて目的とする出力値が得られず、かつ、学習の進行
が極端に滞っている状態になれば、自己拡張を行う。第
2図は自己拡張動作のフローチャートである。
ステップS1で、所定の学習アルゴリズムによって学習
が実行される。
が実行される。
ステップS2で、出力部3からの出力値(教師有り学習
の場合には、上記出力値と教師データ)に基づいて、学
習が収束に向かっているか否かが判別される。その結果
収束していれば自己拡張動作を含むニューラル・ネット
ワークの学習を終了する。また、そうでなければステッ
プS3に進む。
の場合には、上記出力値と教師データ)に基づいて、学
習が収束に向かっているか否かが判別される。その結果
収束していれば自己拡張動作を含むニューラル・ネット
ワークの学習を終了する。また、そうでなければステッ
プS3に進む。
の値との比の二乗和の値が閾値未満である。
条件例4
t回学習時における出力値と(t−n)回学習時におけ
る出力値との変化里と、t回学習時における出力値との
比の二乗和の値が閾値未満である。
る出力値との変化里と、t回学習時における出力値との
比の二乗和の値が閾値未満である。
条件例5
t回学冒時における出力値と(t−n)回学習時におけ
る出力値との変化量の二乗和の値が閾値未満である。
る出力値との変化量の二乗和の値が閾値未満である。
条件例6
教師有り学習において、出力値と教師データの値との差
の二乗和の値が閾値以上である。
の二乗和の値が閾値以上である。
条件例7
t回学習時における出力値と、t回学習時における出力
値と(t−n)回学習時における出力値との変化量との
和の値が閾値未満である。
値と(t−n)回学習時における出力値との変化量との
和の値が閾値未満である。
条件例8
規定回数n回学習を行ったとき、総ての学習ザンプルに
対して正しい出力結果が得られない。
対して正しい出力結果が得られない。
条件例9
ステップS3で、学習が進行しているか否かが判別され
る。その結果進行していればステップS1に戻って学習
が続行され、そうでなければステップS4に進む。
る。その結果進行していればステップS1に戻って学習
が続行され、そうでなければステップS4に進む。
ステップS4で、ニューラル・ネットワークの構造が自
己拡張された後、ステップS1に戻って学習が続行され
る。
己拡張された後、ステップS1に戻って学習が続行され
る。
次に、上記学習進行判定部8による学習進行の判定結果
とそれに基づくニューラル・ネットワークの自己拡張例
の一例について、具体的に説明する。自己拡張には大き
く分けて中間層のノード数増加,出力層のノード数増加
および中間層の層数増加がある。
とそれに基づくニューラル・ネットワークの自己拡張例
の一例について、具体的に説明する。自己拡張には大き
く分けて中間層のノード数増加,出力層のノード数増加
および中間層の層数増加がある。
(A) 中間層のノード数増加
多層バーセプトロン型ニコーラル・ネッ}・ワークのよ
うな中間層を有するニューラル・ネットワークの学習時
において、学習の進行が滞っている状態になった場合に
は中間層のノード数を増加して学習を続行する。この場
合、中間層をもつニューラル・ネッl・ワークであれば
、どのようなネットワーク構造あるいは学習アルゴリズ
ムであっても構わない。また、ノードを増加させる際の
ノード間の結合状態やノード数は、必要に応じて任意に
設定できる。通常は、同一層にお(Jる他のノドのノー
ド間結合状態と同じノード間結合状急によって結合し、
その際のノード間結合重みの初期値はOに近い乱数を与
える。
うな中間層を有するニューラル・ネットワークの学習時
において、学習の進行が滞っている状態になった場合に
は中間層のノード数を増加して学習を続行する。この場
合、中間層をもつニューラル・ネッl・ワークであれば
、どのようなネットワーク構造あるいは学習アルゴリズ
ムであっても構わない。また、ノードを増加させる際の
ノード間の結合状態やノード数は、必要に応じて任意に
設定できる。通常は、同一層にお(Jる他のノドのノー
ド間結合状態と同じノード間結合状急によって結合し、
その際のノード間結合重みの初期値はOに近い乱数を与
える。
自己拡張例(A)−1
第3図はパックプロパゲーションによって学習を行う全
結合3層パーセプ1・ロン型ニューラル・ネットワーク
の概略図である。入力層のノードには学習データを入力
する一方、出力ノードのノードには教師データを入力し
、その際の出力データが教師データと同しになる」ユう
に学習が実行される。
結合3層パーセプ1・ロン型ニューラル・ネットワーク
の概略図である。入力層のノードには学習データを入力
する一方、出力ノードのノードには教師データを入力し
、その際の出力データが教師データと同しになる」ユう
に学習が実行される。
いま、総ての学習データに対して、(t − n)回目
の学習における中間層の1番目のノードと出力層のj番
目のノードとの間の結合重みの値Wij(t−n)と、
t回目の学習における中間層の】番目のノードと出力層
のj番目のノードとの間の結合重みの値上記パックプロ
パゲーンブンによって学習を行う全結合3層パーセプ}
・ロン型ニクーラル・ネットワークにおいて、総ての学
習データに対して、(t − n)回目の学習にお(J
る出力層のj番目のノードの出力値Oj(t−n)とt
回目の学習における出力層のj番目のノードの出力値O
j(t)との変化量と、t回目の学習における出力層
の1番目のノードの出力値O j(t)との比の二乗和
Ha J Ho一Σ Coo .i(t)−0 .i(t − n
)}/O j(t):]’j・1 が、閾値C未満になり、かつ、出力層のJ番目のノード
からの出力値Oj(L)とこのj番目のノードに入力さ
れる教師データの信号値Tiとの差の二乗和E J E一Σ {O j(t) − ’I” .i}’コ・I が、閾値B以」二の場合(ずなわら、上記条件例4と条
件例6を満たず場合)に、次のようにネットワークを自
己拡張する。すなわち、自己拡張部7は中間層に含まれ
るノードの数をn個(ネッ1・ワーWij(t)との変
化量の二乗和△W が、閾値A未満になり、かつ、出力層のj番目のノード
からの出力値Oj(t)とこのj番目のノードに入力さ
れる教師データの信号値T1との差の二乗和E J E一Σ {O j(t) − T j) ’j−1 が、閾値B以」二の場合(すなわち、上記条件例2と条
件例6を八たず場合)に、次のようにネットワークを自
己拡張する。すなわち、自己拡張部7は中間層に含まれ
るノードの数をm%(任意に定めることができ、例えば
少数点以下は切り上げる)増加する。その際に、増加し
たノードは下側の層(この場合は入力層)の全ノードお
よび」二側の層(この場合は出力層)の全ノードと結合
する。また、その際のノード間結合重みの初期値として
はOに近い乱数が与えられる。
の学習における中間層の1番目のノードと出力層のj番
目のノードとの間の結合重みの値Wij(t−n)と、
t回目の学習における中間層の】番目のノードと出力層
のj番目のノードとの間の結合重みの値上記パックプロ
パゲーンブンによって学習を行う全結合3層パーセプ}
・ロン型ニクーラル・ネットワークにおいて、総ての学
習データに対して、(t − n)回目の学習にお(J
る出力層のj番目のノードの出力値Oj(t−n)とt
回目の学習における出力層のj番目のノードの出力値O
j(t)との変化量と、t回目の学習における出力層
の1番目のノードの出力値O j(t)との比の二乗和
Ha J Ho一Σ Coo .i(t)−0 .i(t − n
)}/O j(t):]’j・1 が、閾値C未満になり、かつ、出力層のJ番目のノード
からの出力値Oj(L)とこのj番目のノードに入力さ
れる教師データの信号値Tiとの差の二乗和E J E一Σ {O j(t) − ’I” .i}’コ・I が、閾値B以」二の場合(ずなわら、上記条件例4と条
件例6を満たず場合)に、次のようにネットワークを自
己拡張する。すなわち、自己拡張部7は中間層に含まれ
るノードの数をn個(ネッ1・ワーWij(t)との変
化量の二乗和△W が、閾値A未満になり、かつ、出力層のj番目のノード
からの出力値Oj(t)とこのj番目のノードに入力さ
れる教師データの信号値T1との差の二乗和E J E一Σ {O j(t) − T j) ’j−1 が、閾値B以」二の場合(すなわち、上記条件例2と条
件例6を八たず場合)に、次のようにネットワークを自
己拡張する。すなわち、自己拡張部7は中間層に含まれ
るノードの数をm%(任意に定めることができ、例えば
少数点以下は切り上げる)増加する。その際に、増加し
たノードは下側の層(この場合は入力層)の全ノードお
よび」二側の層(この場合は出力層)の全ノードと結合
する。また、その際のノード間結合重みの初期値として
はOに近い乱数が与えられる。
ク構造によって所定値を定める)増加する。その際に、
増加したノードは下側の層(この場合は入力層)の全ノ
ードおよび上側の層(この場合は出力層)の全ノードと
結合する。また、その際のノード間結合重みの初期値と
しては、ノード数を増加する而の中間層におけるノード
間結合重みの値の最大値より小さい乱数が与えられる。
増加したノードは下側の層(この場合は入力層)の全ノ
ードおよび上側の層(この場合は出力層)の全ノードと
結合する。また、その際のノード間結合重みの初期値と
しては、ノード数を増加する而の中間層におけるノード
間結合重みの値の最大値より小さい乱数が与えられる。
自己拡張例(A)−3
第4図はパックプロパゲーソヨンによって学習を行う部
分結合3層パーセブ}・ロン型ニューラル・ネットワー
クの概略図である。このニューラル・ネソトワークは、
入力層の全ソ一ドと中間層の全ソ一ドが結合されるので
はなく、入力層に含まれる全ソ一ドを幾つかのブロック
に分けると同時に、出力値に含まれる全ノードをも同じ
数のブロックに分けろ。そl2て、入力層の任意のブロ
ック内の各ノー1・は中間層の任意のブロック内の全ソ
一ドと結合する。その際に、複数のブロックにまたがっ
て結合してもよい。ここで、上記ブUj ツクのことを
窓と呼ぶ。学習の際には、入力層のノードには学習デー
タを入力する一方、出力ノードのノードには教師データ
を入力し、その際の出力データが教師データと同じにな
るように学習が実行される。
分結合3層パーセブ}・ロン型ニューラル・ネットワー
クの概略図である。このニューラル・ネソトワークは、
入力層の全ソ一ドと中間層の全ソ一ドが結合されるので
はなく、入力層に含まれる全ソ一ドを幾つかのブロック
に分けると同時に、出力値に含まれる全ノードをも同じ
数のブロックに分けろ。そl2て、入力層の任意のブロ
ック内の各ノー1・は中間層の任意のブロック内の全ソ
一ドと結合する。その際に、複数のブロックにまたがっ
て結合してもよい。ここで、上記ブUj ツクのことを
窓と呼ぶ。学習の際には、入力層のノードには学習デー
タを入力する一方、出力ノードのノードには教師データ
を入力し、その際の出力データが教師データと同じにな
るように学習が実行される。
いま、総ての学習データに対して、(t−n)回目の学
習における出力層のj番目のノードの出力値Oj(t−
n)とt回目の学習における出力層のj番目のノードの
出力値O j(t)との変化量の値の二乗和△O J △0−Σ {O j(t) 一〇 j(L − n))
’j・1 が、閾値C未満になり、かつ、出力層のj番目のノード
からの出力値O j(t)とこのj番目のノードに入力
される教師データの信号値Tiとの差の二乗和E J E一Σ {O j(t) − T j)”j=1 が、閾値B以上の場合(すなわち、上記条件例5と条件
例6を満たす場合)に、次のようにネットワークを自己
拡張する。すなわち、自己拡張部7は中間層の各窓に含
まれるノードの数を夫々m個(ネI Wkn=(Σ W k i ) /m a1二1 を与えるのである。
習における出力層のj番目のノードの出力値Oj(t−
n)とt回目の学習における出力層のj番目のノードの
出力値O j(t)との変化量の値の二乗和△O J △0−Σ {O j(t) 一〇 j(L − n))
’j・1 が、閾値C未満になり、かつ、出力層のj番目のノード
からの出力値O j(t)とこのj番目のノードに入力
される教師データの信号値Tiとの差の二乗和E J E一Σ {O j(t) − T j)”j=1 が、閾値B以上の場合(すなわち、上記条件例5と条件
例6を満たす場合)に、次のようにネットワークを自己
拡張する。すなわち、自己拡張部7は中間層の各窓に含
まれるノードの数を夫々m個(ネI Wkn=(Σ W k i ) /m a1二1 を与えるのである。
(B) 出力層のノード数増加
コホーネン型ニューラル・ネットワークのように、出力
層の複数のノードが同一のカテゴリを表しているニュー
ラル・ネットワークの学習時において、学習の進行が滞
っている状態になった場合には出力層のノード数を増加
して学習を続行する。
層の複数のノードが同一のカテゴリを表しているニュー
ラル・ネットワークの学習時において、学習の進行が滞
っている状態になった場合には出力層のノード数を増加
して学習を続行する。
この場合、上述のような構造のニューラル・ネットワー
クであれば、どのような学習アルゴリズムであっても構
わない。また、ノードを増加させる際のノード間結合状
態やノード数は、必要に応じて任意に設定できる。
クであれば、どのような学習アルゴリズムであっても構
わない。また、ノードを増加させる際のノード間結合状
態やノード数は、必要に応じて任意に設定できる。
自己拡張例(B)−1
第5図は自己組織化特徴写像によって学習を行うコホー
ネン型ニューラル・ネットワークの概略図である。入力
層の各ノードに学習データが入力されると出力層の各ノ
ードから出力値が出力される。その際に、最大値を出力
しているノードを中ットワーク構造によって所定値を定
める)増加する。その際に、増加したノードのノード間
結合の状態はその中間層の窓に含まれるm。個の他のノ
ードと同じノード間結合の状態とする。また、増加され
たノードのノード間結合重みの初期値は次のように与え
る。
ネン型ニューラル・ネットワークの概略図である。入力
層の各ノードに学習データが入力されると出力層の各ノ
ードから出力値が出力される。その際に、最大値を出力
しているノードを中ットワーク構造によって所定値を定
める)増加する。その際に、増加したノードのノード間
結合の状態はその中間層の窓に含まれるm。個の他のノ
ードと同じノード間結合の状態とする。また、増加され
たノードのノード間結合重みの初期値は次のように与え
る。
いま、増加されたノードは、窓2の中間層におけるn番
目のノード(以下、ノードnと表し、他のノードも同様
に表す)であるとする。そうすると、中間層の増加ノー
ドnと出力層のノードjとのノード間結合重みの値Wn
jとして、窓2内の中間層の各非増加ノードと出力層の
ノードkとのノーF間結合重みの値Wijの平均値 ■ Wnj−( Σ W!D/mo i=] を与える。
目のノード(以下、ノードnと表し、他のノードも同様
に表す)であるとする。そうすると、中間層の増加ノー
ドnと出力層のノードjとのノード間結合重みの値Wn
jとして、窓2内の中間層の各非増加ノードと出力層の
ノードkとのノーF間結合重みの値Wijの平均値 ■ Wnj−( Σ W!D/mo i=] を与える。
一方、中間層の増加ノードnと入力層のノードkとのノ
ード間結合重みの値Wknとして、窓2内の中間層の各
非増加ノードと入力層のノードkとのノード間結合重み
の値Wkiの平均値 心とした所定領域に在るノードに対応ずるノード間結合
重みの値を大きくし、上記所定領域付近が上記学習デー
タが属するカテゴリを表すように学習が実行される いま、規定回数n回の学習が終了しても学習が終了しな
い(すなわち、総ての学習サンプルに対して正しくカテ
ゴリ分割が行われない・上記条件例8を満たす)場合に
、次のようにネットワークを自己拡張する。すなわち、
自己拡張部7は出力層のノードをm個新たに設ける。そ
の際に、この新設されたノードは入力層のノードに全結
合する。
ード間結合重みの値Wknとして、窓2内の中間層の各
非増加ノードと入力層のノードkとのノード間結合重み
の値Wkiの平均値 心とした所定領域に在るノードに対応ずるノード間結合
重みの値を大きくし、上記所定領域付近が上記学習デー
タが属するカテゴリを表すように学習が実行される いま、規定回数n回の学習が終了しても学習が終了しな
い(すなわち、総ての学習サンプルに対して正しくカテ
ゴリ分割が行われない・上記条件例8を満たす)場合に
、次のようにネットワークを自己拡張する。すなわち、
自己拡張部7は出力層のノードをm個新たに設ける。そ
の際に、この新設されたノードは入力層のノードに全結
合する。
また、その際のノード間結合重みの初期値としては0に
近い乱数が与えられる。ここで、上記新設ノード数mは
、ニューラル・ネットワークの構造およびニューラル・
ネットワークの規模によって予め設定しておく。
近い乱数が与えられる。ここで、上記新設ノード数mは
、ニューラル・ネットワークの構造およびニューラル・
ネットワークの規模によって予め設定しておく。
自己拡張例(B)−2
第6図は学習ベクトル量子化2(LVQ2)によって学
習を行うコポーネン型ニューラル・ネットワークの概略
図である。入力層の各ノードに学習データが入力される
と出力層の各ノードから出力値が出力される。その際に
、学習データが属するカテゴリに割り付けられた出力層
のノードが最大値を出力するように学習が実行される いま、規定回数n回の学習が終了しても学習が終了しな
い(すなわち、総ての学習データに対して学習データが
属するカテゴリに割り付けられた出力層のノードが最大
出力値を出力しない、換言すれば、正しい出力結果が得
られない二上記条件例8を満たず)場合に、次のように
ネットワークを自己拡張する。すなわち、自己拡張部7
は、総ての学習データに対して正しく識別されるカテゴ
リを除く全カテゴリに割り付けられる出力層のノード数
を、夫々のカテゴリにおいてm個新設する。
習を行うコポーネン型ニューラル・ネットワークの概略
図である。入力層の各ノードに学習データが入力される
と出力層の各ノードから出力値が出力される。その際に
、学習データが属するカテゴリに割り付けられた出力層
のノードが最大値を出力するように学習が実行される いま、規定回数n回の学習が終了しても学習が終了しな
い(すなわち、総ての学習データに対して学習データが
属するカテゴリに割り付けられた出力層のノードが最大
出力値を出力しない、換言すれば、正しい出力結果が得
られない二上記条件例8を満たず)場合に、次のように
ネットワークを自己拡張する。すなわち、自己拡張部7
は、総ての学習データに対して正しく識別されるカテゴ
リを除く全カテゴリに割り付けられる出力層のノード数
を、夫々のカテゴリにおいてm個新設する。
そして、出力層に新設されたノードは入力層のノードに
全結合する。ここで、上記新設ノード数mは、ニューラ
ル・ネットワークの構造およびニューラル・ネットワー
クの規模によって予め設定しておく。
全結合する。ここで、上記新設ノード数mは、ニューラ
ル・ネットワークの構造およびニューラル・ネットワー
クの規模によって予め設定しておく。
また、その際のノード間結合重みの初期値は次3】
要素の値を、カテゴリi,に新たに割り付けられたノー
ドのノード間結合重みのベクトル要素の初期値とする。
ドのノード間結合重みのベクトル要素の初期値とする。
以下、同様にして各新設ノードのノード間結合重みの初
期値が与えられる。
期値が与えられる。
こうすることによって、上記誤りの程度の大きな学習デ
ータに対して正しい出力結果を得るように、新設ノード
のノード間結合重みの初期値を設定することができるの
である。
ータに対して正しい出力結果を得るように、新設ノード
のノード間結合重みの初期値を設定することができるの
である。
(C) 中間層の層数増加
上述のパックプロパゲーションによって学習を行う多層
パーセプトロン型ニューラル・ネットワークに代表され
るフィードフォワード型のニューラル・ネットワークの
学昔において、学習の進行が滞っている状態になった場
合には中間層の層数を増加して学習を続行する。その際
に、中間層の層数を増加する方法として次の2つの方法
がある。
パーセプトロン型ニューラル・ネットワークに代表され
るフィードフォワード型のニューラル・ネットワークの
学昔において、学習の進行が滞っている状態になった場
合には中間層の層数を増加して学習を続行する。その際
に、中間層の層数を増加する方法として次の2つの方法
がある。
(a)出力層の上に新たな出力層を設け、旧出力層を中
間層の最上層とずる。
間層の最上層とずる。
(b)入力層と出力層との間の任意の位置に新たな中間
層を設ける。その際に、新たな中間層を設{Jのように
して与える。上述のように出力層にノードを新設した後
、入力層のノードにある学習データを入力する。そして
、入力された学習データが属するカテゴ1月に割り付け
られた出力層のノードからの最大出力値Riと、他のカ
テゴリに割り付けられた出力層のノードからの最大出力
値Fj(ここで、Fjを出力するノードが割り付けられ
ているカテゴリをjとする)との比H H = F j/R i を算出する。このようにして、同一カテゴリに含まれる
総ての学習データに対してHを算出して値の大きい順に
並べる。そして、まず最大のHの値H+(一Fj+/R
I+: j+はH1が得られたときのjの値、I+はH
.が得られたときの1の値である)が得らる学習データ
(すなわち、最も誤りの程度の大きな学習データ)のベ
クトル要素の値を、その学習データが属するカテゴリi
Iに新たに割り付けられたノードのノード間結合重みの
ベクトル要素の初期値とする。次に、2番目に大きなH
の値H2(’ F js/R L)が得られる学習デー
タのベクトルる位置およびこの新たな中間層のノード数
は用途に応じて最適に設定する。
層を設ける。その際に、新たな中間層を設{Jのように
して与える。上述のように出力層にノードを新設した後
、入力層のノードにある学習データを入力する。そして
、入力された学習データが属するカテゴ1月に割り付け
られた出力層のノードからの最大出力値Riと、他のカ
テゴリに割り付けられた出力層のノードからの最大出力
値Fj(ここで、Fjを出力するノードが割り付けられ
ているカテゴリをjとする)との比H H = F j/R i を算出する。このようにして、同一カテゴリに含まれる
総ての学習データに対してHを算出して値の大きい順に
並べる。そして、まず最大のHの値H+(一Fj+/R
I+: j+はH1が得られたときのjの値、I+はH
.が得られたときの1の値である)が得らる学習データ
(すなわち、最も誤りの程度の大きな学習データ)のベ
クトル要素の値を、その学習データが属するカテゴリi
Iに新たに割り付けられたノードのノード間結合重みの
ベクトル要素の初期値とする。次に、2番目に大きなH
の値H2(’ F js/R L)が得られる学習デー
タのベクトルる位置およびこの新たな中間層のノード数
は用途に応じて最適に設定する。
自己拡張例(C)−1
第7図はパックプロパゲーションによって学習を行う多
層バーセプトロン型ニューラル・ネットワークの概略図
である。学習時において、上記学習の進行の滞りを検出
するための条件例のいずれかが満たされて、学習の進行
が滞っていると判定された場合に、次のようにネットワ
ークを自己拡張する。すなわち、自己拡張部7は出力層
LOの上部に新たな出力層LEを設ける。新出力層LE
のノード数は新中間層LOと同じにし、新出力層LEと
新中間層LOとの間の新ノード間結合の結合状態は全結
合とする。また、上記新ノード間結合におけるノード間
結合重みの初期値は0に近い乱数を与える。
層バーセプトロン型ニューラル・ネットワークの概略図
である。学習時において、上記学習の進行の滞りを検出
するための条件例のいずれかが満たされて、学習の進行
が滞っていると判定された場合に、次のようにネットワ
ークを自己拡張する。すなわち、自己拡張部7は出力層
LOの上部に新たな出力層LEを設ける。新出力層LE
のノード数は新中間層LOと同じにし、新出力層LEと
新中間層LOとの間の新ノード間結合の結合状態は全結
合とする。また、上記新ノード間結合におけるノード間
結合重みの初期値は0に近い乱数を与える。
その際に、新出力層LEと新中間層LOとの間の新ノー
ド間結合の状態および新ノード間結合重みの初期値は、
必要に応じて最適に設定できる。
ド間結合の状態および新ノード間結合重みの初期値は、
必要に応じて最適に設定できる。
また、新中間層LOに含まれるノードのノード数を上述
(A)のように変更可能にできる。
(A)のように変更可能にできる。
自己拡張例(C)− 2
第8図はパックプロパゲーンヨンによって学習を行う多
層パーセプトロン型ニューラル・ネットワークの概略図
である。学習時において、上述(A)のようにして中間
層L1のノーF数を規定回数n回増加したにも拘わらず
、上記学習の進行の滞りを検出するための条件例のいず
れかが満たされて学習の進行が滞っていると判定された
場合に、次のようにネットワークを自己拡張する。すな
わち、自己拡張部7は出力層LOと中間層L Iとの間
に新たな中間層LNを設ける。新中間層LNのノード数
は中間層L Iと同じにし、新中間層LNと出力層LO
との間の新ノード間結合の状態、および、新中間層LN
と中間層L lとの間の新ノード間結合の状態は全結合
七する。その際に、出力層LOと中間層L Iとの間の
旧ノード間結合は切らずに接続したままにしておく。そ
して、上記新中間層LNと中間層L +との間の新ノー
ド間結合重みの初期値は、出力層LOと中間層L1との
間の旧ノくして、学習時間および識別時間を短縮するこ
とができる。また、学習が収束しない場合には強制的に
学習が収束に向かうようにして、学習の効率を良くする
ことができる。
層パーセプトロン型ニューラル・ネットワークの概略図
である。学習時において、上述(A)のようにして中間
層L1のノーF数を規定回数n回増加したにも拘わらず
、上記学習の進行の滞りを検出するための条件例のいず
れかが満たされて学習の進行が滞っていると判定された
場合に、次のようにネットワークを自己拡張する。すな
わち、自己拡張部7は出力層LOと中間層L Iとの間
に新たな中間層LNを設ける。新中間層LNのノード数
は中間層L Iと同じにし、新中間層LNと出力層LO
との間の新ノード間結合の状態、および、新中間層LN
と中間層L lとの間の新ノード間結合の状態は全結合
七する。その際に、出力層LOと中間層L Iとの間の
旧ノード間結合は切らずに接続したままにしておく。そ
して、上記新中間層LNと中間層L +との間の新ノー
ド間結合重みの初期値は、出力層LOと中間層L1との
間の旧ノくして、学習時間および識別時間を短縮するこ
とができる。また、学習が収束しない場合には強制的に
学習が収束に向かうようにして、学習の効率を良くする
ことができる。
この発明におけるニューラル・ネットワーク形状.学習
アルゴリズム,ノード間結合状態およびノード間結合重
みの初期値の与え方等の内容、および、それらの組み合
わせは、上記実施例に限定されるものではない。したが
って、上記実施例における自己拡張例(A)= 1また
は自己拡張例(A)2と、自己拡張例(C)−1または
自己拡張例(C)2とを組み合わせても何等差し支えな
い。
アルゴリズム,ノード間結合状態およびノード間結合重
みの初期値の与え方等の内容、および、それらの組み合
わせは、上記実施例に限定されるものではない。したが
って、上記実施例における自己拡張例(A)= 1また
は自己拡張例(A)2と、自己拡張例(C)−1または
自己拡張例(C)2とを組み合わせても何等差し支えな
い。
この発明において、学習の進行の滞りを判定するための
条件例は上記実施例に限定されるものではない。また、
上述の条件例の中から使用するニューラル・ネットワー
クの形状等によって最適な条件例を幾つか組み合わせて
もよい。
条件例は上記実施例に限定されるものではない。また、
上述の条件例の中から使用するニューラル・ネットワー
クの形状等によって最適な条件例を幾つか組み合わせて
もよい。
く発明の効果〉
以上より明らかなように、この発明の自己拡張形ニュー
ラル・ネットワークは、出力データに基ード間結合重み
の値に0に近い乱数を加算した値を与える。また、新中
間層LNと出力層LOとの間の新ノード間結合重みの初
期値は0に近い乱数を与える。
ラル・ネットワークは、出力データに基ード間結合重み
の値に0に近い乱数を加算した値を与える。また、新中
間層LNと出力層LOとの間の新ノード間結合重みの初
期値は0に近い乱数を与える。
その際に、新中間層LNと中間層L1との間の新ノード
間結合の状態と新ノード間結合重みの初期値、および、
新中間層LNと出力層LOとの間の新ノード間結合の状
態と新ノード間結合重みの初期値は、必要に応じて最適
に設定できる。
間結合の状態と新ノード間結合重みの初期値、および、
新中間層LNと出力層LOとの間の新ノード間結合の状
態と新ノード間結合重みの初期値は、必要に応じて最適
に設定できる。
上述のように、この発明の自己拡張ニコーラル・ネッ}
・ワークは、学習時に際して、学習進行判定部8によっ
て学習の進行が滞っていると判定された場合には、自己
拡張部7によって、中間層のノード数.出力層のノード
数,中間層の層数を増加し、あるいは、出力層の上層に
新たな出力層を設けるようにしたので、当初中間層のノ
ード数や出力層のノード数あるいは中間層の層数を必要
予想数より少なめに設定しておけば、中間層の層数や各
層内のノード数を必要最小限の数に設定することができ
、学習時や識別時における計算量を少なづいて学習が収
束していないと判定した場合に、ノード間結合重みの値
を更新するニューラル・ネットワークに、学習進行判定
部と自己拡張部を設けて、上記学習進行判定部が学習が
進行していないと判定してネッ}・ワーク構造の拡張を
指示する拡張指示信号を出力すると、この拡張指示信号
に従って、上記自己拡張部は新たなノードを設け、この
新たに設けられたノードのノード間結合の状態および新
たに設けられたノード間結合のノード間結合重みの初期
値を設定することによってネットワーク構造を自己拡張
し、更に学習を継続するようにしたので、当初のノード
数を予想される数より少なく設定すれば、学習によって
ノード゛数を必要最小限の数に設定することができる。
・ワークは、学習時に際して、学習進行判定部8によっ
て学習の進行が滞っていると判定された場合には、自己
拡張部7によって、中間層のノード数.出力層のノード
数,中間層の層数を増加し、あるいは、出力層の上層に
新たな出力層を設けるようにしたので、当初中間層のノ
ード数や出力層のノード数あるいは中間層の層数を必要
予想数より少なめに設定しておけば、中間層の層数や各
層内のノード数を必要最小限の数に設定することができ
、学習時や識別時における計算量を少なづいて学習が収
束していないと判定した場合に、ノード間結合重みの値
を更新するニューラル・ネットワークに、学習進行判定
部と自己拡張部を設けて、上記学習進行判定部が学習が
進行していないと判定してネッ}・ワーク構造の拡張を
指示する拡張指示信号を出力すると、この拡張指示信号
に従って、上記自己拡張部は新たなノードを設け、この
新たに設けられたノードのノード間結合の状態および新
たに設けられたノード間結合のノード間結合重みの初期
値を設定することによってネットワーク構造を自己拡張
し、更に学習を継続するようにしたので、当初のノード
数を予想される数より少なく設定すれば、学習によって
ノード゛数を必要最小限の数に設定することができる。
したがって、この発明の自己拡張形ニコーラル・ネッl
・ワークは、学習時や識別時における計算量を少なくで
き、学習時間および識別時間を短縮ずろことができる。
・ワークは、学習時や識別時における計算量を少なくで
き、学習時間および識別時間を短縮ずろことができる。
さらに、学習が進行しないようになった場合に強制的に
学習が収束に.向かうようにでき、効率よく学習を実行
1ることができる。
学習が収束に.向かうようにでき、効率よく学習を実行
1ることができる。
また、この発明の自己拡張形ニクーラル・ネットワーク
におげるニューラル・ネソl・ワークは、中間層を有す
る多層二コーラル・ネットワークであって、上記自己拡
張部がネソトワーク構造を自己拡張する際に、」一記新
たなノードを上記中間層内に設けるようにしたものであ
る。したがって、当初上記中間層内のノード数を予想さ
れる数より少なめに設定すれば、中間層内のノード数を
必要最小限の数に設定することができ、学習時間および
識別時間を短縮することかできる。さらに、学習が進行
しない場合に強制的に学習か収束に向かうようにでき、
効率よく学習を実行することができる。
におげるニューラル・ネソl・ワークは、中間層を有す
る多層二コーラル・ネットワークであって、上記自己拡
張部がネソトワーク構造を自己拡張する際に、」一記新
たなノードを上記中間層内に設けるようにしたものであ
る。したがって、当初上記中間層内のノード数を予想さ
れる数より少なめに設定すれば、中間層内のノード数を
必要最小限の数に設定することができ、学習時間および
識別時間を短縮することかできる。さらに、学習が進行
しない場合に強制的に学習か収束に向かうようにでき、
効率よく学習を実行することができる。
また、この発明の自己拡張形ニコーラル・ネッl・ワー
クにおける」一記ニューラル・ネットワークは、出力層
の複数のノードが同一のカテゴリを表ずニューラル・ネ
ットワークであって、上記自己拡張部がネットワーク構
造を自己拡張する際に、上記新たなノードを上記出力層
内に設(ノるようにしたものである。したがって、当初
上記出力層内トワーク1こおける上記ニューラノレ・ネ
ットワークは、入力層,中間層および出力層から成る多
層ニューラル・ネットワークであって、上記自己拡張部
がネットワーク構造を自己拡張する際に、上記新たなノ
ードで新たな出ノj層を構成し、この新たな出力層を上
記出力層の」一層として設けると共に、上記出力層を新
たな中間層として上記中間層に付加して設けるようにし
たものである。したがって、当初上記中間層の層数を予
想される数より少なめに設定すれば、中間層の層数を必
要最小限の数に設定することができ、学習時間および識
別時間を短縮することができる。さらに、学習が進行し
ない場合に強制的に学習が収束に向かうようにでき、効
率よく学習を実行することができる。
クにおける」一記ニューラル・ネットワークは、出力層
の複数のノードが同一のカテゴリを表ずニューラル・ネ
ットワークであって、上記自己拡張部がネットワーク構
造を自己拡張する際に、上記新たなノードを上記出力層
内に設(ノるようにしたものである。したがって、当初
上記出力層内トワーク1こおける上記ニューラノレ・ネ
ットワークは、入力層,中間層および出力層から成る多
層ニューラル・ネットワークであって、上記自己拡張部
がネットワーク構造を自己拡張する際に、上記新たなノ
ードで新たな出ノj層を構成し、この新たな出力層を上
記出力層の」一層として設けると共に、上記出力層を新
たな中間層として上記中間層に付加して設けるようにし
たものである。したがって、当初上記中間層の層数を予
想される数より少なめに設定すれば、中間層の層数を必
要最小限の数に設定することができ、学習時間および識
別時間を短縮することができる。さらに、学習が進行し
ない場合に強制的に学習が収束に向かうようにでき、効
率よく学習を実行することができる。
また、この発明の自己拡張形ニコーラル・ネッl・ワー
クにおける上記二コーラル・ネットワークは、出力層の
複数のノーISが同一のカテゴリに割り{=j’ IJ
られて教師有り学習によって学習が行われるニューラル
・ネッl・ワークであって、上記自己拡張部がネッ1・
ワーク構造を自己拡張する際に、のノ一ド数を予想され
る数より少なめに設定すれば、出力層内のノード数を必
要最小限の数に設定することができ、学習時間および識
別時間を短縮することができる。さらに、学習が進行し
ない場合に強制的に学習が収束に向かうようにでき、効
率よく学習を実行することができる。
クにおける上記二コーラル・ネットワークは、出力層の
複数のノーISが同一のカテゴリに割り{=j’ IJ
られて教師有り学習によって学習が行われるニューラル
・ネッl・ワークであって、上記自己拡張部がネッ1・
ワーク構造を自己拡張する際に、のノ一ド数を予想され
る数より少なめに設定すれば、出力層内のノード数を必
要最小限の数に設定することができ、学習時間および識
別時間を短縮することができる。さらに、学習が進行し
ない場合に強制的に学習が収束に向かうようにでき、効
率よく学習を実行することができる。
また、この発明の自己拡張形ニューラル・ネットワーク
における上記ニューラル・ネットワークは、中間層を有
する多層ニューラル・ネットワークであって、上記自己
拡張部がネットワーク構造を自己拡張する際に、上記新
たなノードで新たな中間層を構成し、この新たな中間層
を上記中間層に付加して設けるようにしたものである。
における上記ニューラル・ネットワークは、中間層を有
する多層ニューラル・ネットワークであって、上記自己
拡張部がネットワーク構造を自己拡張する際に、上記新
たなノードで新たな中間層を構成し、この新たな中間層
を上記中間層に付加して設けるようにしたものである。
したがって、当初上記中間層の層数を予想される数より
少なめに設定すれば、中間層の層数を必要最小限の数に
設定することができ、学習時間および識別時間を短縮す
ることができる。さらに、学習が進行しない場合に強制
的に学冒が収束に向かうようにでき、効率よく学習を実
行することができる。
少なめに設定すれば、中間層の層数を必要最小限の数に
設定することができ、学習時間および識別時間を短縮す
ることができる。さらに、学習が進行しない場合に強制
的に学冒が収束に向かうようにでき、効率よく学習を実
行することができる。
また、この発明の自己拡張形ニューラル・ネツ上記新た
なノードを上記出力層内に設け、その際に最も誤りの程
度の大きな学習データの各要素の値を、その学習データ
が属するカテゴリに新たに割り付けられたノードのノー
ド間結合重みの各要素の初期値として設定するようにし
たものである。
なノードを上記出力層内に設け、その際に最も誤りの程
度の大きな学習データの各要素の値を、その学習データ
が属するカテゴリに新たに割り付けられたノードのノー
ド間結合重みの各要素の初期値として設定するようにし
たものである。
したがって、当初上記出力層内のノー}・数を予想され
る数より少なめに設定すれば、出力層内のノード数を必
要最小限の数に設定することができると共に、最も誤り
の程度の大きな学習データに対して正しいカテゴリ識別
結果が得られるように、上記出力層内に新たに設けられ
たノードのノード間結合重みの初期値が設定され、学習
時間および識別時間を短縮することができる。さらに、
学習が進行しない場合に強制的に学習が収束に向かうよ
うにでき、効率よく学習を実行することができる。
る数より少なめに設定すれば、出力層内のノード数を必
要最小限の数に設定することができると共に、最も誤り
の程度の大きな学習データに対して正しいカテゴリ識別
結果が得られるように、上記出力層内に新たに設けられ
たノードのノード間結合重みの初期値が設定され、学習
時間および識別時間を短縮することができる。さらに、
学習が進行しない場合に強制的に学習が収束に向かうよ
うにでき、効率よく学習を実行することができる。
第1図はこの発明の自己拡張形ニューラル・ネツl・ワ
ークの一実施例におけるブロック図、第2図は自己拡張
動作のフローチャート、第3図は全結合3層パーセプト
ロン型ニューラル・ネットワークの概略図、第4図は部
分結合3層バーセプトロン型ニューラル・ネットワーク
の概略図、第5図は自己組織化特徴写像によって学習す
るコホーネン型ニューラル・ネットワークの概略図、第
6図はL V Q 2によって学習ずるコホーネン型ニ
ューラル・ネットワークの概略図、第7図は新たに出力
層を設けた場合の多層パーセプトロン型ニューラル・ネ
ットワークの概略図、第8図は新たに中間層を設けた場
合の多層パーセプトロン型ニューラル・ネットワークの
概略図である。 1・・・入力部、 2・・・演算部、 3・・出力部、
4 ノード間結合重み格納部、 5・・・学習制御部、 6・収束判定部、7・・自
己拡張部、 8・・・学習進行判定部。
ークの一実施例におけるブロック図、第2図は自己拡張
動作のフローチャート、第3図は全結合3層パーセプト
ロン型ニューラル・ネットワークの概略図、第4図は部
分結合3層バーセプトロン型ニューラル・ネットワーク
の概略図、第5図は自己組織化特徴写像によって学習す
るコホーネン型ニューラル・ネットワークの概略図、第
6図はL V Q 2によって学習ずるコホーネン型ニ
ューラル・ネットワークの概略図、第7図は新たに出力
層を設けた場合の多層パーセプトロン型ニューラル・ネ
ットワークの概略図、第8図は新たに中間層を設けた場
合の多層パーセプトロン型ニューラル・ネットワークの
概略図である。 1・・・入力部、 2・・・演算部、 3・・出力部、
4 ノード間結合重み格納部、 5・・・学習制御部、 6・収束判定部、7・・自
己拡張部、 8・・・学習進行判定部。
Claims (6)
- (1)学習に際して、入力された学習データとノード間
結合重みの値を用いて出力データを求め、この出力デー
タに基づいて学習の収束判定を行い、その結果学習が収
束していない場合には上記ノード間結合重みの値を所定
の規則に従って更新するニューラル・ネットワークにお
いて、 上記出力データとノード間結合重みの値に基づいて学習
が進行しているか否かを判定し、学習が進行していない
と判定した場合は、ネットワーク構造の拡張を指示する
拡張指示信号を出力する学習進行判定部と、 上記学習進行判定部からの拡張指示信号に従って新たな
ノードを設け、この新たに設けられたノードのノード間
結合の状態および新たに設けられたノード間結合のノー
ド間結合重みの初期値を設定することによってネットワ
ークの構造を自己拡張する自己拡張部を設けて、 上記自己拡張部によってネットワーク構造が自己拡張さ
れた場合は、自己拡張されたネットワーク構造によって
学習を継続することを特徴とする自己拡張形ニューラル
・ネットワーク。 - (2)上記ニューラル・ネットワークは、入力層,中間
層および出力層から成る多層ニューラル・ネットワーク
であって、上記自己拡張部がネットワーク構造を自己拡
張する際に、上記新たなノードを上記中間層内に設ける
ことを特徴とする請求項1に記載の自己拡張形ニューラ
ル・ネットワーク。 - (3)上記ニューラル・ネットワークは、出力層の複数
のノードが同一のカテゴリを表すニューラル・ネットワ
ークであって、上記自己拡張部がネットワーク構造を自
己拡張する際に、上記新たなノードを上記出力層内に設
けることを特徴とする請求項1に記載の自己拡張形ニュ
ーラル・ネットワーク。 - (4)上記ニューラル・ネットワークは、入力層,中間
層および出力層から成る多層ニューラル・ネットワーク
であって、上記自己拡張部がネットワーク構造を自己拡
張する際に、上記新たなノードで新たな中間層を構成し
、この新たな中間層を上記中間層に付加して設けること
を特徴とする請求項1または請求項2に記載の自己拡張
形ニューラル・ネットワーク。 - (5)上記ニューラル・ネットワークは、入力層,中間
層および出力層から成る多層ニューラル・ネットワーク
であって、上記自己拡張部がネットワーク構造を自己拡
張する際に、上記新たなノードで新たな出力層を構成し
、この新たな出力層を上記出力層の上層として設けると
共に、上記出力層を新たな中間層として上記中間層に付
加して設けることを特徴とする請求項1,請求項2また
は請求項4に記載の自己拡張形ニューラル・ネットワー
ク。 - (6)上記ニューラル・ネットワークは、出力層の複数
のノードが同一のカテゴリに割り付けられて教師有り学
習によって学習が行われるニューラル・ネットワークで
あって、上記自己拡張部がネットワーク構造を自己拡張
する際に、上記新たなノードを上記出力層内に設け、そ
の際に最も誤りの程度の大きな学習データの各要素の値
を、その学習データが属するカテゴリに新たに割り付け
られたノードのノード間結合重みの各要素の初期値とし
て設定することを特徴とする請求項1または請求項3に
記載の自己拡張形ニューラル・ネットワーク。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP1060329A JPH0738186B2 (ja) | 1989-03-13 | 1989-03-13 | 自己拡張形ニユーラル・ネットワーク |
US07/489,508 US5033006A (en) | 1989-03-13 | 1990-03-07 | Self-extending neural-network |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP1060329A JPH0738186B2 (ja) | 1989-03-13 | 1989-03-13 | 自己拡張形ニユーラル・ネットワーク |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH02238560A true JPH02238560A (ja) | 1990-09-20 |
JPH0738186B2 JPH0738186B2 (ja) | 1995-04-26 |
Family
ID=13139023
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP1060329A Expired - Lifetime JPH0738186B2 (ja) | 1989-03-13 | 1989-03-13 | 自己拡張形ニユーラル・ネットワーク |
Country Status (2)
Country | Link |
---|---|
US (1) | US5033006A (ja) |
JP (1) | JPH0738186B2 (ja) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07319508A (ja) * | 1989-03-13 | 1995-12-08 | Hitachi Ltd | プロセス運転支援方法およびシステム |
US5627942A (en) * | 1989-12-22 | 1997-05-06 | British Telecommunications Public Limited Company | Trainable neural network having short-term memory for altering input layer topology during training |
JP2016103262A (ja) * | 2014-11-27 | 2016-06-02 | 三星電子株式会社Samsung Electronics Co.,Ltd. | ニューラルネットワーク構造拡張方法、次元縮小方法、及びその方法を用いた装置 |
JP2018097612A (ja) * | 2016-12-13 | 2018-06-21 | 富士通株式会社 | 情報処理装置、プログラム及び情報処理方法 |
CN110097183A (zh) * | 2018-01-29 | 2019-08-06 | 松下电器(美国)知识产权公司 | 信息处理方法以及信息处理系统 |
JP2019133627A (ja) * | 2018-01-29 | 2019-08-08 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 情報処理方法及び情報処理システム |
JP2019135392A (ja) * | 2018-02-05 | 2019-08-15 | トヨタ自動車株式会社 | 内燃機関の制御装置および出力値を出力する装置 |
KR20200072910A (ko) * | 2018-12-13 | 2020-06-23 | 한동대학교 산학협력단 | 딥러닝 프레임워크를 활용한 뉴럴 네트워크 구조 확장 방법 |
JP2020129323A (ja) * | 2019-02-12 | 2020-08-27 | 三菱電機株式会社 | ニューラルネットワークの学習方法 |
US10853727B2 (en) | 2018-02-05 | 2020-12-01 | Toyota Jidosha Kabushiki Kaisha | Machine learning system |
Families Citing this family (47)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5195169A (en) * | 1989-03-03 | 1993-03-16 | Sharp Kabushiki Kaisha | Control device for controlling learning of a neural network |
DE68927675T2 (de) * | 1989-08-23 | 1997-07-10 | Hitachi Ltd | Verfahren zur Richtigstellung von Netzwerkwichtungsfaktoren in einer mehrschichtigen Perceptronvorrichtung und eine solche Vorrichtung mit Mitteln zur Ausführung dieses Verfahrens |
JPH03167655A (ja) * | 1989-11-28 | 1991-07-19 | Toshiba Corp | ニューラルネットワーク |
JPH03288258A (ja) * | 1990-04-04 | 1991-12-18 | Takayama:Kk | データ処理装置の学習方法 |
DE69120854T2 (de) * | 1990-04-24 | 1996-11-21 | Sharp Kk | Lernverfahren fÜr Datenverarbeitungssystem |
DE69127495T2 (de) * | 1990-05-16 | 1998-01-08 | Matsushita Electric Ind Co Ltd | Erkennungseinheit und Gerät zur Erkennung und Beurteilung in dem die Einheit verwendet ist |
EP0461902B1 (en) | 1990-06-14 | 1998-12-23 | Canon Kabushiki Kaisha | Neural network |
JP2763182B2 (ja) * | 1990-06-28 | 1998-06-11 | 株式会社東芝 | ニューラル・ネットワークの学習方法 |
KR930009065B1 (ko) * | 1990-08-18 | 1993-09-22 | 정호선 | 다층신경회로망 및 그 회로설계방법 |
US5181171A (en) * | 1990-09-20 | 1993-01-19 | Atlantic Richfield Company | Adaptive network for automated first break picking of seismic refraction events and method of operating the same |
US5308915A (en) * | 1990-10-19 | 1994-05-03 | Yamaha Corporation | Electronic musical instrument utilizing neural net |
JP3329806B2 (ja) * | 1990-11-09 | 2002-09-30 | 株式会社日立製作所 | ニューラルネット構築装置 |
US5214747A (en) * | 1990-12-24 | 1993-05-25 | Eastman Kodak Company | Segmented neural network with daisy chain control |
JP3088171B2 (ja) * | 1991-02-12 | 2000-09-18 | 三菱電機株式会社 | 自己組織型パタ−ン分類システム及び分類方法 |
US5239594A (en) * | 1991-02-12 | 1993-08-24 | Mitsubishi Denki Kabushiki Kaisha | Self-organizing pattern classification neural network system |
JPH04262453A (ja) * | 1991-02-15 | 1992-09-17 | Hitachi Ltd | ニュ−ロ学習制御方法及び装置 |
WO1992017849A1 (en) * | 1991-04-02 | 1992-10-15 | Massachusetts Institute Of Technology | Automatic design of signal processors using neural networks |
US5408588A (en) * | 1991-06-06 | 1995-04-18 | Ulug; Mehmet E. | Artificial neural network method and architecture |
US5357597A (en) * | 1991-06-24 | 1994-10-18 | International Business Machines Corporation | Convolutional expert neural system (ConExNS) |
JP3169635B2 (ja) * | 1991-07-03 | 2001-05-28 | 本田技研工業株式会社 | ニューラルネットワーク及びその学習方法 |
US5852817A (en) * | 1991-08-14 | 1998-12-22 | Kabushiki Kaisha Toshiba | Intelligent control apparatus |
JP3242950B2 (ja) * | 1991-08-14 | 2001-12-25 | 株式会社東芝 | 予測制御方法 |
JP2722906B2 (ja) * | 1991-12-27 | 1998-03-09 | ダイキン工業株式会社 | 未知数量推定方法およびその装置 |
US5371809A (en) * | 1992-03-30 | 1994-12-06 | Desieno; Duane D. | Neural network for improved classification of patterns which adds a best performing trial branch node to the network |
EP0944021B1 (en) * | 1992-06-19 | 2005-05-11 | United Parcel Service Of America, Inc. | Method and apparatus for training for generating and for adjusting a neuron |
US5438629A (en) * | 1992-06-19 | 1995-08-01 | United Parcel Service Of America, Inc. | Method and apparatus for input classification using non-spherical neurons |
GB9214514D0 (en) * | 1992-07-08 | 1992-08-19 | Massachusetts Inst Technology | Information processing |
JPH06203005A (ja) * | 1992-10-27 | 1994-07-22 | Eastman Kodak Co | 高速区分化ニューラルネットワーク及びその構築方法 |
JP2737583B2 (ja) * | 1992-11-26 | 1998-04-08 | 松下電器産業株式会社 | ニューラルネットワーク回路 |
EP0602717B1 (fr) * | 1992-12-16 | 1997-10-01 | Laboratoires D'electronique Philips S.A.S. | Dispositif neuronal et procédé pour le construire |
FR2704669B1 (fr) * | 1993-04-29 | 1995-06-30 | France Telecom | Systeme a reseau neuronal pour le traitement de signaux, notamment pour l'analyse et la synthese d'images. |
DE4430628C2 (de) * | 1994-08-29 | 1998-01-08 | Hoehn Marcus Dipl Wirtsch Ing | Verfahren und Einrichtung einer intelligenten, lernfähigen Musikbegleitautomatik für elektronische Klangerzeuger |
US5684929A (en) * | 1994-10-27 | 1997-11-04 | Lucent Technologies Inc. | Method and apparatus for determining the limit on learning machine accuracy imposed by data quality |
US5720003A (en) * | 1994-10-27 | 1998-02-17 | Lucent Technologies Inc. | Method and apparatus for determining the accuracy limit of a learning machine for predicting path performance degradation in a communications network |
US6745169B1 (en) * | 1995-07-27 | 2004-06-01 | Siemens Aktiengesellschaft | Learning process for a neural network |
US6052679A (en) * | 1997-09-11 | 2000-04-18 | International Business Machines Corporation | Artificial neural networks including Boolean-complete compartments |
DE10139682B4 (de) * | 2001-08-11 | 2004-08-05 | Deneg Gmbh | Verfahren zum Generieren von neuronalen Netzen |
EP1504412B1 (en) * | 2002-04-19 | 2018-04-11 | CA, Inc. | Processing mixed numeric and/or non-numeric data |
US7777743B2 (en) * | 2002-04-19 | 2010-08-17 | Computer Associates Think, Inc. | Viewing multi-dimensional data through hierarchical visualization |
US7483868B2 (en) * | 2002-04-19 | 2009-01-27 | Computer Associates Think, Inc. | Automatic neural-net model generation and maintenance |
MY138544A (en) * | 2003-06-26 | 2009-06-30 | Neuramatix Sdn Bhd | Neural networks with learning and expression capability |
WO2007056803A1 (en) | 2005-11-15 | 2007-05-24 | Bernadette Garner | Method for training neural networks |
US9165243B2 (en) * | 2012-02-15 | 2015-10-20 | Microsoft Technology Licensing, Llc | Tensor deep stacked neural network |
EP3026600B1 (en) * | 2014-11-27 | 2021-06-30 | Samsung Electronics Co., Ltd. | Method and apparatus for extending neural network |
JP6453681B2 (ja) * | 2015-03-18 | 2019-01-16 | 株式会社東芝 | 演算装置、演算方法およびプログラム |
CN108985386A (zh) * | 2018-08-07 | 2018-12-11 | 北京旷视科技有限公司 | 获得图像处理模型的方法、图像处理方法及对应装置 |
US11836600B2 (en) * | 2020-08-20 | 2023-12-05 | D5Ai Llc | Targeted incremental growth with continual learning in deep neural networks |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4803736A (en) * | 1985-11-27 | 1989-02-07 | The Trustees Of Boston University | Neural networks for machine vision |
US4914708A (en) * | 1987-06-19 | 1990-04-03 | Boston University | System for self-organization of stable category recognition codes for analog input patterns |
US4874963A (en) * | 1988-02-11 | 1989-10-17 | Bell Communications Research, Inc. | Neuromorphic learning networks |
US4933872A (en) * | 1988-11-15 | 1990-06-12 | Eastman Kodak Company | Method and system for wavefront reconstruction |
US4912655A (en) * | 1988-12-14 | 1990-03-27 | Gte Laboratories Incorporated | Adjusting neural networks |
-
1989
- 1989-03-13 JP JP1060329A patent/JPH0738186B2/ja not_active Expired - Lifetime
-
1990
- 1990-03-07 US US07/489,508 patent/US5033006A/en not_active Expired - Lifetime
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07319508A (ja) * | 1989-03-13 | 1995-12-08 | Hitachi Ltd | プロセス運転支援方法およびシステム |
US5627942A (en) * | 1989-12-22 | 1997-05-06 | British Telecommunications Public Limited Company | Trainable neural network having short-term memory for altering input layer topology during training |
US10832138B2 (en) | 2014-11-27 | 2020-11-10 | Samsung Electronics Co., Ltd. | Method and apparatus for extending neural network |
JP2016103262A (ja) * | 2014-11-27 | 2016-06-02 | 三星電子株式会社Samsung Electronics Co.,Ltd. | ニューラルネットワーク構造拡張方法、次元縮小方法、及びその方法を用いた装置 |
JP2018097612A (ja) * | 2016-12-13 | 2018-06-21 | 富士通株式会社 | 情報処理装置、プログラム及び情報処理方法 |
CN110097183A (zh) * | 2018-01-29 | 2019-08-06 | 松下电器(美国)知识产权公司 | 信息处理方法以及信息处理系统 |
JP2019133627A (ja) * | 2018-01-29 | 2019-08-08 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 情報処理方法及び情報処理システム |
CN110097183B (zh) * | 2018-01-29 | 2024-03-01 | 松下电器(美国)知识产权公司 | 信息处理方法以及信息处理系统 |
JP2019135392A (ja) * | 2018-02-05 | 2019-08-15 | トヨタ自動車株式会社 | 内燃機関の制御装置および出力値を出力する装置 |
US10853727B2 (en) | 2018-02-05 | 2020-12-01 | Toyota Jidosha Kabushiki Kaisha | Machine learning system |
US10634081B2 (en) | 2018-02-05 | 2020-04-28 | Toyota Jidosha Kabushiki Kaisha | Control device of internal combustion engine |
KR20200072910A (ko) * | 2018-12-13 | 2020-06-23 | 한동대학교 산학협력단 | 딥러닝 프레임워크를 활용한 뉴럴 네트워크 구조 확장 방법 |
JP2020129323A (ja) * | 2019-02-12 | 2020-08-27 | 三菱電機株式会社 | ニューラルネットワークの学習方法 |
Also Published As
Publication number | Publication date |
---|---|
JPH0738186B2 (ja) | 1995-04-26 |
US5033006A (en) | 1991-07-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPH02238560A (ja) | 自己拡張形ニユーラル・ネットワーク | |
US5195169A (en) | Control device for controlling learning of a neural network | |
Chan et al. | Neural network-based dynamic channel assignment for cellular mobile communication systems | |
Pham et al. | Control chart pattern recognition using combinations of multi-layer perceptrons and learning-vector-quantization neural networks | |
Anderson et al. | Reinforcement learning with modular neural networks for control | |
EP0907117A1 (en) | Nonlinear neural predictive control system | |
KR970006030B1 (ko) | 부분선형 회귀모형 구조 | |
Duan et al. | A Mamdani type multistage fuzzy neural network model | |
JPH05151373A (ja) | ニユーラルネツトワークを用いたフアジイ逆診断方法 | |
JP3262340B2 (ja) | 情報処理装置 | |
Kishi et al. | LEGO-type design by using neural networks | |
JPH0428681A (ja) | エレベータの群管理制御方法 | |
Mastorocostas | A Block-Diagonal Recurrent Fuzzy Neural Network for Dynamic System Identification | |
Chakraborty et al. | Designing rule-based classifiers with on-line feature selection: a neuro-fuzzy approach | |
Faravelli et al. | Self-learning fuzzy control of civil structures | |
Tian et al. | Uncertainty-Based Dynamic Weighted Experience Replay for Human-in-the-Loop Deep Reinforcement Learning | |
JPH05324013A (ja) | システムモデリング方法 | |
Kitajima et al. | Generalized fuzzy inference neural network using a self‐organizing feature map | |
JPH03232057A (ja) | 神経回路網装置 | |
CN109934753A (zh) | 一种基于JADE和强化学习的多Agent应急行动方法 | |
JPH0329064A (ja) | パターン認識装置 | |
Sokolowski et al. | A new approach to aid designing of monitoring systems | |
JP2607351B2 (ja) | 多層パーセプトロンの神経回路網の効率的な学習のための誤差信号の発生方法 | |
Krawczak | Backpropagation versus dynamic programming approach for neural networks learning | |
JPH03147173A (ja) | ニューラルネットワーク |