[go: up one dir, main page]

JPH0561848A - Device and method for selecting and executing optimum algorithm - Google Patents

Device and method for selecting and executing optimum algorithm

Info

Publication number
JPH0561848A
JPH0561848A JP3221526A JP22152691A JPH0561848A JP H0561848 A JPH0561848 A JP H0561848A JP 3221526 A JP3221526 A JP 3221526A JP 22152691 A JP22152691 A JP 22152691A JP H0561848 A JPH0561848 A JP H0561848A
Authority
JP
Japan
Prior art keywords
function
value
algorithm
algorithms
multimodal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3221526A
Other languages
Japanese (ja)
Inventor
Hironari Masui
裕也 増井
Ikuo Matsuba
育雄 松葉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP3221526A priority Critical patent/JPH0561848A/en
Publication of JPH0561848A publication Critical patent/JPH0561848A/en
Pending legal-status Critical Current

Links

Landscapes

  • Complex Calculations (AREA)

Abstract

(57)【要約】 【目的】与えられた多峰性多変数関数に最適な極小・極
大点探索アルゴリズムの選定と実行、及び同期的変数更
新処理の収束性の改善。 【構成】予め、関数を特徴付ける量の統計量の値が異な
る複数の多峰性多変数関数のそれぞれに、極小点又は極
大点の探索のための複数のアルゴリズムを適用して、そ
の結果についての対比データを作成し、記憶装置101
に格納しておく。ある多峰性多変数関数が与えられる
と、その関数に最適なアルゴリズムを、この関数を特徴
付ける量の統計量の値と前記対比データとに基づいて、
前記複数のアルゴリズムの中から選択する。全変数の同
期的更新に際して、更新の変化量をある割合で圧縮する
ことより、収束性を改善する。
(57) [Summary] [Purpose] The selection and execution of the optimal minimum / maximum point search algorithm for a given multimodal multivariable function, and the improvement of the convergence of the synchronous variable update processing. [Structure] In advance, a plurality of algorithms for searching for a local minimum point or a local maximum point are applied to each of a plurality of multimodal multivariable functions having different statistic values that characterize the function, and The comparison data is created and stored in the storage device 101.
Stored in. Given a multimodal multivariable function, the optimal algorithm for that function, based on the value of the statistic of the quantity that characterizes this function and the contrast data,
Select from the plurality of algorithms. In synchronous updating of all variables, the convergence is improved by compressing the amount of change in updating at a certain rate.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、多峰性多変数関数のコ
ンピュータ処理に関し、特に、この型の関数の極小点又
は極大点(それぞれ最小点と最大点を含む)を探索する
ための最適アルゴリズムの、コンピュータによる選定と
実行に関する。この型の関数のコンピュータ処理は、各
種の最適化問題の求解、各種の制御などに応用される。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to computer processing of multimodal multivariable functions, and more particularly to finding the minimum or maximum points (including the minimum and maximum points, respectively) of this type of function. Related to computer selection and execution of algorithms. Computer processing of this type of function is applied to solve various optimization problems, control various types, and the like.

【0002】[0002]

【従来の技術】多峰性多変数関数の最小点の探索の代表
的な例は、ニューラルネットワークモデルを用いて最適
化問題を解く場合の、エネルギー最小化計算である。
2. Description of the Related Art A typical example of searching for a minimum point of a multimodal multivariable function is energy minimization calculation when an optimization problem is solved using a neural network model.

【0003】従来、ニュ−ラルネットワ−クのエネルギ
−最小化のためのアルゴリズムとしては、Biological C
ybernetics, Vol.52,1985年,第141−152
頁,「"Neural" Computation of Decisions in Optimiz
ation Problems」(以後文献1という)に述べられてい
る方法、SCIENCE, Vol.220, No.4598,198
3年5月13日,第671−680頁,「Optimization
by simulated annealing」(以後文献2という)に述
べられている方法、電子情報通信学会技術研究報告,9
0,274,1990年,第1−6頁,「平均場近似ア
ニ−リング法による最適化計算法」(以後文献3とい
う)に述べられている方法等があった。文献1に述べら
れている方法は、高速であるが、極小解にトラップされ
ると脱出不可能であり、文献2に述べられている方法
は、最小解への到達が可能であるが、計算時間が非常に
長く、文献3に述べられている方法は、短時間で最小解
の近似解が得られる。このように、これらの提案された
諸アルゴリズムは、それぞれの特徴を持っている。
Conventionally, as an algorithm for minimizing the energy of the neural network, Biological C
ybernetics, Vol. 52, 1985, 141-152
Page, "" Neural "Computation of Decisions in Optimiz
ation Problems ”(hereinafter referred to as Reference 1), SCIENCE, Vol. 220, No. 4598,198
May 13, 2013, pp. 671-680, "Optimization
by simulated annealing "(hereinafter referred to as Reference 2), IEICE technical report, 9
0, 274, 1990, pp. 1-6, "Optimization calculation method by mean field approximation annealing method" (hereinafter referred to as Reference 3). The method described in Reference 1 is fast, but cannot escape when trapped in a minimal solution, and the method described in Reference 2 can reach the minimum solution, but Since the time is very long, the method described in Literature 3 can obtain the approximate solution of the minimum solution in a short time. Thus, these proposed algorithms have their own characteristics.

【0004】また、エネルギー最小化処理の過程で、各
ニューロンの状態を反復的に多数回更新することが必要
である。ニューロンの状態更新の基本的な方法は、同期
的方法と非同期的方法である。同期的方法は、全ニュー
ロンの状態を並行的に更新するものであり、計算時間は
短いが、ニューラルネットワークの状態が必ずしも常に
安定点に収束するとは限らない。他方、非同期的方法
は、ある一つのニューロンの状態を更新してから、この
ニューロンの更新された状態を前提として次のニューロ
ンの状態を更新するという、逐次的な方法であり、収束
は確実に生じるけれども、長時間を要する。折衷的な方
法として、村田健郎他著、1988年丸善発行、「工学
における数値シミュレ−ション」、第57頁(以後文献
4という)に述べられている、チェッカ−ボ−ド法があ
る。この方法は、ニュ−ロンを格子点に割当てて、その
座標値の和によって偶数点と奇数点とに分類し、偶数点
だけの同期的更新と奇数点だけの同期的更新を交互に繰
り返すというものであり、比較的短時間での確実な収束
が期待できる。
In the process of energy minimization, it is necessary to repeatedly update the state of each neuron many times. The basic methods for updating the state of a neuron are the synchronous method and the asynchronous method. The synchronous method updates the states of all neurons in parallel and has a short calculation time, but the state of the neural network does not always converge to a stable point. On the other hand, the asynchronous method is a sequential method in which the state of one neuron is updated and then the state of the next neuron is updated based on the updated state of this neuron. Although it occurs, it takes a long time. An eclectic method is the checkerboard method described by Kenro Murata et al., Published by Maruzen in 1988, "Numerical Simulation in Engineering", page 57 (hereinafter referred to as Reference 4). According to this method, neurons are assigned to grid points and are classified into even points and odd points according to the sum of their coordinate values, and synchronous updating of only even points and synchronous updating of only odd points are alternately repeated. Therefore, reliable convergence can be expected in a relatively short time.

【0005】[0005]

【発明が解決しようとする課題】前述のように、従来提
案されている諸アルゴリズムは、それぞれの特徴を持っ
ているので、適用対象となる多峰性多変数関数の性質
(例えば、ニューラルネットワークの構成によって定ま
るような)に応じて、最適なアルゴリズムを選択するこ
とが望ましい。しかるに、これらのアルゴリズムの中か
ら、任意に与えられた多峰性多変数関数にとって最適な
(例えば、与えられたニューラルネットワークに対し
て、そのエネルギ−を最も小さくなしうるような)アル
ゴリズムを、予め定量的に判断して選定するための選択
基準は、未だ知られていない。
As described above, since the conventionally proposed algorithms have their respective characteristics, the characteristics of the multimodal multivariable function to be applied (for example, neural network It is desirable to select the optimum algorithm according to the configuration (as determined by the configuration). However, among these algorithms, an algorithm that is optimal for any given multimodal multivariable function (for example, that energy can be minimized for a given neural network) is set in advance. The selection criteria for quantitatively judging and selecting have not been known yet.

【0006】また、変数の値(例えば、ニュ−ロンの状
態)の反復更新についても、前述のチェッカーボード法
は、一般的には計算時間の短縮と確実な収束が期待でき
るとはいえ、全変数(ニュ−ロン)を複数の群に分け
て、各群ごとの同期的更新を逐次的に行なわなければな
らないため、処理が複雑になり、ス−パ−コンピュ−タ
等でベクトル化して計算を行なう場合には、ベクトル化
率が低くなって、計算時間が長くなるという欠点があっ
た。
Also, regarding the iterative updating of the value of a variable (for example, the state of a neuron), the above-mentioned checkerboard method is generally expected to shorten the calculation time and surely converge, but Since variables (neurons) must be divided into multiple groups and synchronous updates must be performed sequentially for each group, the processing becomes complicated and vectorized by a super computer etc. for calculation. However, there is a drawback in that the vectorization rate becomes low and the calculation time becomes long when performing.

【0007】本発明の第1の目的は、与えられた多峰性
多変数関数に最適な(例えば、ニュ−ラルネットワ−ク
に対して最もエネルギ−を小さくするような)極小点又
は極大点探索アルゴリズムを、複数のアルゴリズムの中
から自動的に選定し、更にはそれを実行することができ
る装置及び方法を、提供することにある。
A first object of the present invention is to search for a minimum point or a maximum point which is optimum for a given multimodal multivariable function (for example, which has the smallest energy for a neural network). It is an object to provide an apparatus and a method capable of automatically selecting an algorithm from a plurality of algorithms and executing the algorithm.

【0008】本発明の第2の目的は、群分けをせずに全
変数の値(例えば、全ニュ−ロンの状態)を一斉に同期
的に更新しても、確実な収束が期待できるような変数更
新方法を、提供することにある。
A second object of the present invention is to ensure reliable convergence even if the values of all variables (for example, the states of all neurons) are updated synchronously without grouping. To provide a simple variable updating method.

【0009】[0009]

【課題を解決するための手段】本発明の基本的特徴の一
つは、多峰性多変数関数の特徴の指標として、関数を特
徴付ける量(例えば、ニューラルネットワークの構成)
自体ではなく、それらの統計量を採用し、諸アルゴリズ
ムを適用した結果がこのような統計量の変化によってど
のように変化するかを示すデータを、予め作成して保持
し、このデータを、最適アルゴリズムの選定の尺度とし
て参照するところにある。
One of the basic features of the present invention is the amount of characterizing a function as an index of the feature of a multimodal multivariable function (for example, a neural network configuration).
Optimal data is created by pre-creating and retaining data indicating how the results of applying various algorithms by adopting these statistics instead of themselves, and changing such statistics. It is referred to as a measure for selecting an algorithm.

【0010】すなわち、本発明の最適アルゴリズム選定
装置は、関数を特徴付ける量の統計量の値を異にする複
数の多峰性多変数関数のそれぞれについての、複数の極
小点又は極大点探索アルゴリズムの適用結果の対比デー
タが格納されている記憶装置と、与えられた多峰性多変
数関数に最適なアルゴリズムを、この与えられた多峰性
多変数関数を特徴付ける量の統計量の値と前記対比デー
タとに基づいて、前記複数のアルゴリズムの中から選択
する、処理装置とを備える。この統計量としては、例え
ば、しきい値の平均と分散の少なくとも一方を用いるこ
とができる。
That is, the optimum algorithm selecting device of the present invention is a method for searching a plurality of minimum points or maximum points for each of a plurality of multimodal multivariable functions having different statistic values of the features characterizing the function. A storage device in which contrast data of application results are stored, and an optimum algorithm for a given multimodal multivariable function are compared with the value of the statistic of the quantity that characterizes the given multimodal multivariable function A processing device that selects from among the plurality of algorithms based on the data. As this statistic, for example, at least one of average and variance of thresholds can be used.

【0011】ニューラルネットワークの場合には、この
関数はエネルギー関数であり、関数を特徴付ける量はシ
ナプスの結合荷重とニューロンのしきい値の少なくとも
一方であり、対比データは算出された最小エネルギーで
ある。非線形計画法の場合には、関数は非線形計画法に
おける評価関数であり、関数を特徴付ける量はこの評価
関数における係数の少なくとも一つであり、対比データ
は算出された最小関数値又は最大関数値である。また、
ニューラルネットワークからなる連想記憶の場合には、
関数はこの連想記憶の特性を表わす関数であり、関数の
特徴を表わす量は連想記憶の一群のキーパターンの相関
量であり、対比データは連想記憶の応答の正誤率を示す
データである。
In the case of a neural network, this function is an energy function, the quantity characterizing the function is at least one of the synaptic connection weight and the neuron threshold, and the contrast data is the calculated minimum energy. In the case of nonlinear programming, the function is the evaluation function in nonlinear programming, the quantity characterizing the function is at least one of the coefficients in this evaluation function, and the contrast data is the calculated minimum or maximum function value. is there. Also,
In the case of associative memory consisting of neural networks,
The function is a function that represents the characteristic of the associative memory, the amount that represents the feature of the function is the correlation amount of a group of key patterns of the associative memory, and the contrast data is the data that indicates the accuracy rate of the response of the associative memory.

【0012】この装置における最適アルゴリズム選定方
法は、ニューラルネットワークと非線形計画法の場合に
は、与えられた多峰性多変数関数を特徴付ける量の統計
量の値を計算するステップと、前記対比データを参照し
て、この計算された統計量の値に最も近い統計量の値に
対して最小又は最大の関数値を与えるアルゴリズムを選
択するステップとを備える。また、連想記憶の場合に
は、与えられた一群のキーパターン中の諸パターン対間
の相関量の値の平均及び分散の少なくとも一方の値を計
算するステップと、前記対比データを参照して、前記計
算された値に最も近い同種の量の値に対して最も良い正
誤率を与えるアルゴリズムを選択するステップとを備え
る。これらの方法において、実質上同一の関数値又は正
誤率を与える複数のアルゴリズムが存在するときには、
それらの中から計算時間が最も短いものを選択すればよ
い。
In the case of a neural network and a non-linear programming method, the optimum algorithm selection method in this apparatus is to calculate the value of the statistic of the quantity that characterizes a given multimodal multivariable function, and Referring to, selecting an algorithm that gives a minimum or maximum function value for the statistic value closest to the calculated statistic value. Further, in the case of associative memory, the step of calculating at least one of the average value and the variance value of the correlation value between the pattern pairs in the given group of key patterns, and referring to the comparison data, Selecting the algorithm that gives the best accuracy rate for values of the same kind that are closest to the calculated value. In these methods, when there are a plurality of algorithms giving substantially the same function value or accuracy rate,
The one having the shortest calculation time may be selected from them.

【0013】前記の最適アルゴリズム選定装置の記憶装
置に、更に、前記複数のアルゴリズムのそれぞれを実行
するためのプログラムを格納し、そして、処理装置に、
選択した最適アルゴリズムを実行するためのプログラム
を実行する機能を与えれば、最適アルゴリズム実行装置
が得られる。
A program for executing each of the plurality of algorithms is further stored in the storage device of the optimum algorithm selecting device, and the processing device is provided with:
An optimum algorithm execution device can be obtained by providing a function for executing a program for executing the selected optimum algorithm.

【0014】本発明のもう一つの基本的特徴は、選択さ
れたアルゴリズムの実行に際して、諸変数の値の更新に
おける変化量を、通常の方法によるよりも圧縮して、同
期的更新を行なうところにある。
Another basic feature of the present invention is that, when executing the selected algorithm, the amount of change in updating the values of various variables is compressed more than in the usual method, and synchronous updating is performed. is there.

【0015】すなわち、本発明の変数値更新方法は、選
択されたアルゴリズムに従って仮の更新値を算出するス
テップと、前記仮の更新値と更新前の値の差を所定のパ
ラメータに従って圧縮して更新後の値を決定するステッ
プと、これらの両ステップを適用して全変数の値を同期
的に更新するステップを含む。このパラメータは、定数
でもよいし、あるいは、反復更新の回が進むにつれて一
定の方向に変更されてもよい。
That is, the variable value updating method of the present invention comprises a step of calculating a temporary updated value according to a selected algorithm, and a step of compressing and updating the difference between the temporary updated value and the value before updating according to a predetermined parameter. It includes the steps of determining later values and applying both of these steps to synchronously update the values of all variables. This parameter may be a constant or may change in a constant direction as the number of iterative updates progresses.

【0016】[0016]

【作用】本発明の最適アルゴリズム選定装置及び方法に
よれば、コンピュータが、与えられた多峰性多変数関数
を特徴付ける量の統計量の値を計算し、この計算された
統計量の値をキーとして、記憶装置に保持されている諸
アルゴリズムの性能対比データを参照して、与えられた
関数に最適なアルゴリズムを選定する。
According to the optimum algorithm selecting apparatus and method of the present invention, the computer calculates the value of the statistic of the quantity which characterizes the given multimodal multivariable function, and the calculated value of the statistic is used as a key. As a reference, the optimum algorithm for the given function is selected by referring to the performance comparison data of the various algorithms held in the storage device.

【0017】また、本発明の最適アルゴリズム実行装置
によれば、コンピュータが、前述のようにして選定した
最適アルゴリズムを、与えられた関数に適用して、解を
作成する。
Further, according to the optimum algorithm executing apparatus of the present invention, the computer applies the optimum algorithm selected as described above to the given function to create a solution.

【0018】更に、本発明のアルゴリズム実行方法によ
れば、各変数の値の更新に際して、急激な値の変化を抑
制しつつ、全変数の値の同期的な更新を行なう。その結
果、高速でしかも確実な収束が期待できる。
Furthermore, according to the algorithm execution method of the present invention, when updating the values of the variables, the values of all the variables are updated synchronously while suppressing rapid changes in the values. As a result, fast and reliable convergence can be expected.

【0019】[0019]

【実施例】図1は、本発明による最適アルゴリズム選定
・実行装置の概要を示す。外部メモリ101には、複数
の最小化アルゴリズムを実行するための各プログラム
と、これらのアルゴリズムを構成の統計量が異なる種々
のニューラルネットワークに適用したときの優劣を表わ
す、アルゴリズム対比データとが、保持されている。与
えられたニュ−ラルネットワ−クの構造を表わすデータ
をキ−ボ−ド102により入力し、コンピュ−タ103
は、このニューラルネットワークの構成の統計量を算出
し、外部メモリ101に保持されているアルゴリズム対
比データを参照して、このニューラルネットワークに最
適なアルゴリズムを選定し、そして、選定されたアルゴ
リズムを適用して、このニュ−ラルネットワ−クのエネ
ルギ−最小化計算を実行し、得られた解をディスプレイ
104に表示する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS FIG. 1 shows an outline of an optimum algorithm selecting / executing apparatus according to the present invention. The external memory 101 holds each program for executing a plurality of minimization algorithms and algorithm contrast data representing superiority or inferiority when these algorithms are applied to various neural networks having different configuration statistics. Has been done. Data representing the structure of the given neural network is input by the keyboard 102, and the computer 103 is entered.
Calculates the statistic of the configuration of this neural network, selects the optimum algorithm for this neural network by referring to the algorithm comparison data stored in the external memory 101, and applies the selected algorithm. Then, the energy minimization calculation of this neural network is executed, and the obtained solution is displayed on the display 104.

【0020】アルゴリズム対比データは、前記の文献3
でも用いられているスピングラスモデルを試算の対象と
して用い、結合荷重としきい値の統計量が異なる種々の
スピングラスモデルに各アルゴリズムを適用して、得ら
れた最小エネルギーの値を、その場合の前記統計量と共
に、対比に便利な形式に編集したものである。与えられ
たニュ−ラルネットワ−クの同種の統計量を算出して、
それらの値をキーとしてアルゴリズム対比データを参照
することにより、このニューラルネットワークに最適な
アルゴリズムを選定することができる。また、選定され
たアルゴリズムの適用に際して、各ニューロンの状態
(出力値)の更新における変化量を適当に圧縮すること
により、同期的更新を行なうにもかかわらず、確実な収
束が期待できる。
The algorithm comparison data is described in the above-mentioned reference 3
The spin-glass model used in this study is used as the target of trial calculation, and each algorithm is applied to various spin-glass models with different coupling weights and threshold statistics. It is compiled into a convenient format for comparison with the above statistics. Calculate the same kind of statistics of a given neural network,
The optimum algorithm for this neural network can be selected by referring to the algorithm comparison data using those values as keys. In addition, when the selected algorithm is applied, the amount of change in updating the state (output value) of each neuron is appropriately compressed, so that reliable convergence can be expected despite synchronous updating.

【0021】一般に、ニュ−ラルネットワ−クは、図2
に示す相互結合型ニュ−ラルネットワ−クで表わされ
る。複数のニューロン201が、それぞれ固有の結合荷
重を持つシナプス202によって相互接続されている。
各ニューロン201は、図3に示すように、しきい値と
出力関数304を有し、重み付き総入力303の値に応
じて出力信号305を決定する。出力関数は、本実施例
では、図4に示すような離散的に2値のみを取りうる階
段関数401ではなく、単調増加するアナログ値を取り
うる飽和型のシグモイド関数とした。これらニューロン
の協調的及び競合的な動作により、ネットワ−クのエネ
ルギ−は、最小値状態へ向かって収束して行く。なお、
エネルギ−関数は、Wijをi番目のニューロンからj番
目のニュ−ロンへの結合荷重、aiをi番目のニュ−ロ
ンのしきい値、Viをi番目のニューロンの出力値、N
をニュ−ロンの総数としたとき、一般に次式で定義され
る。
Generally, the neural network is shown in FIG.
It is represented by the mutual connection type neural network shown in FIG. A plurality of neurons 201 are interconnected by synapses 202 each having a unique connection weight.
As shown in FIG. 3, each neuron 201 has a threshold value and an output function 304, and determines the output signal 305 according to the value of the weighted total input 303. In the present embodiment, the output function is not the step function 401 that can take only binary values discretely as shown in FIG. 4, but the saturation type sigmoid function that can take monotonically increasing analog values. The energy of the network converges toward the minimum value by the cooperative and competitive actions of these neurons. In addition,
The energy function is such that W ij is the connection weight from the i-th neuron to the j-th neuron, a i is the threshold value of the i-th neuron, Vi is the output value of the i-th neuron, and N i is the output value.
Is generally defined by the following equation.

【0022】[0022]

【数1】 [Equation 1]

【0023】まず、アルゴリズム対比データの作成手順
を説明する。一般に、相互結合型ニュ−ラルネットワ−
クのエネルギ−関数は、複雑なエネルギ−曲面を呈し、
多くの極小解を有する。そのため、エネルギ−が真に最
小となる最適解に達することは非常に困難であり、良質
な準最適解へ高速に到達するための様々なアルゴリズム
が提案されている。本実施例では、代表的なアルゴリズ
ムとして、文献1に記載されたホップフィ−ルドらの方
法(以後H法と略称する)、文献2に記載されたシミュ
レ−テッドアニ−リング法(以後SA法と略称する)、
並びに文献3に記載された平均場近似アニ−リング法
(以後MFAA法と略称する)と混合法を採用し、これ
らをスピングラスモデルに適用する。スピングラスモデ
ルでは、ニュ−ロン間の結合荷重と各ニュ−ロンのしき
い値が正又は負の値を取りうる正規乱数として与えら
れ、かつ、Wij=Wjiである。このとき、設定する正規
乱数の平均と分散を変えることにより、エネルギ−曲面
の形状が調節可能である。
First, the procedure for creating the algorithm comparison data will be described. Generally, an interconnected neural network
Ku's energy function exhibits a complex energy surface,
It has many minimal solutions. Therefore, it is very difficult to reach the optimum solution in which the energy is truly the minimum, and various algorithms have been proposed for reaching a good quality suboptimal solution at high speed. In this embodiment, as typical algorithms, the method of Hopfield et al. Described in Document 1 (hereinafter abbreviated as H method) and the simulated annealing method described in Document 2 (hereinafter abbreviated as SA method). Do),
In addition, the mean field approximation annealing method (hereinafter abbreviated as MFAA method) and the mixing method described in Reference 3 are adopted, and these are applied to the spin glass model. In the spin glass model, the coupling load between neurons and the threshold value of each neuron are given as normal random numbers that can take positive or negative values, and W ij = W ji . At this time, the shape of the energy-curved surface can be adjusted by changing the average and variance of the set normal random numbers.

【0024】図5及び図6は、前記のモデルにおいて、
結合荷重の平均WA及び分散Wσ、並びにしきい値の平
均aA及び分散aσが変化したときの、前記4アルゴリ
ズムの性能の比較結果を示す。各アルゴリズムにおける
反復計算回数は、H法では1000回、SA法とMFA
A法では10000回とし、混合法では、MFAA法で
100回、その後のSA法で10000回とした。ニュ
ーロンの総数は50個である。そして、10種類の系列
を異にする正規乱数を初期状態として与え、各結果のエ
ネルギ−値の平均がプロットされている。これらのグラ
フにおいて、横軸(対数目盛)は変化せしめられた統計
量を示し、縦軸は、H法により得られた最小エネルギ−
値EHを基準として、その他のアルゴリズムで得られた
最小エネルギ−EのEHに対する規格化誤差ER、すな
わち、ER=(EH−E)/EHを示している。▽印はS
A法、△印はMFAA法、○印は混合法を、それぞれ表
わす。ER=0%の横軸がH法による求解結果であり、
規格化誤差が正の大きな値になるほど、より最適解に近
い解が得られたことを示す。
FIG. 5 and FIG. 6 show that in the above model,
The comparison results of the performances of the four algorithms when the average WA and the variance Wσ of the coupling weights and the average aA and the variance aσ of the threshold values are changed are shown. The number of iterative calculations in each algorithm is 1000 for H method, SA method and MFA
The method A was 10,000 times, the mixing method was 100 times by the MFAA method, and the subsequent SA method was 10,000 times. The total number of neurons is 50. Then, a normal random number having 10 different series is given as an initial state, and the average of the energy values of each result is plotted. In these graphs, the horizontal axis (logarithmic scale) shows the changed statistics, and the vertical axis shows the minimum energy obtained by the H method.
The standardization error ER with respect to EH of the minimum energy −E obtained by another algorithm with reference to the value EH, that is, ER = (EH−E) / EH is shown. ▽ indicates S
The A method, the Δ mark represent the MFAA method, and the ○ mark represent the mixed method. The horizontal axis of ER = 0% is the solution result by the H method,
The larger the standardization error is, the closer the solution is to the optimal solution.

【0025】図5(A)は、結合荷重の分散Wσのみを
変化させ、結合荷重の平均WA並びにしきい値の平均aA
及び分散aσを“0”に設定したときの、これら4種の
アルゴリズムの性能の比較結果を示す。横軸はWσを示
す。まず、SA法に着目すると、これによる解は、常
に、4アルゴリズムの中で最も最適解から遠い。したが
って、このアルゴリズムは、現実的な反復回数の範囲で
は、有効性を充分に発揮することができそうもない。次
に、MFAA法は、Wσが2以下のときには、これらの
アルゴリズムの中で最良の解が得られている。しかしな
がら、Wσが3以上では混合法と順位が逆転し、Wσが
8以上ではH法と同等になり、このように、Wσの増加
に従って徐々に性能が劣化している。この原因は、MF
AA法は近似法であるため、Wσが大きくなってエネル
ギ−曲面が複雑になり、多くの極小点が生じるにつれ
て、近似化による誤差が大きくなるためであると、定性
的に理解できる。他方、混合法は、Wσが0.07以下
ではH法より僅かに劣るが、しかし、Wσが0.08以
上では安定して良好な解が得られている。これは、Wσ
が大きくなって極小解が増加したときに、単純な最急降
下法であるH法とは対照的に、極小解からの脱出が可能
な混合法の特質が発揮されるためである。
In FIG. 5A, the average WA of the joint loads and the average aA of the thresholds are changed by changing only the variance Wσ of the joint loads.
And the comparison results of the performance of these four algorithms when the variance aσ is set to “0”. The horizontal axis represents Wσ. First, focusing on the SA method, the resulting solution is always farthest from the optimal solution among the four algorithms. Therefore, it is unlikely that this algorithm will be fully effective within a realistic number of iterations. Next, in the MFAA method, when Wσ is 2 or less, the best solution among these algorithms is obtained. However, when Wσ is 3 or more, the order is reversed from that of the mixed method, and when Wσ is 8 or more, the rank is the same as that of the H method, and thus the performance gradually deteriorates as Wσ increases. This cause is MF
Since the AA method is an approximation method, it can be qualitatively understood that the error due to the approximation becomes large as Wσ becomes large and the energy-curved surface becomes complicated and many minimum points are generated. On the other hand, the mixed method is slightly inferior to the H method when Wσ is 0.07 or less, but a stable and good solution is obtained when Wσ is 0.08 or more. This is Wσ
This is because the characteristics of the mixed method capable of escaping from the minimal solution are exhibited when H becomes large and the minimal solution increases, in contrast to the H method, which is a simple steepest descent method.

【0026】次に、図5(B)は、Wσ=0.1、aσ
=aA=0として、結合荷重の平均WAを変化させたとき
の比較結果を示す。MFAA法と混合法はWAが0.0
2以上、SA法はWAが0.4以上で、H法と同等にな
る。これは、結合荷重の平均が大きくなるにつれて、結
合荷重の分散の影響が小さくなり、エネルギ−曲面が単
調になるためであろう。
Next, in FIG. 5B, Wσ = 0.1, aσ
= AA = 0, the comparison results when the average WA of the coupling load is changed are shown. WA of 0.0 in the MFAA method and the mixed method
2 or more, SA method has WA of 0.4 or more, which is equivalent to H method. This is probably because the influence of the dispersion of the coupling load becomes smaller and the energy-curved surface becomes monotonous as the average of the coupling load becomes larger.

【0027】更に、図6(A)は、Wσ=0.1、WA
=aA=0として、しきい値の分散aσを変化させたと
きの比較結果を示す。優劣はaσが変化しても変動せ
ず、しきい値の分散の影響はほとんど無視できることが
分かる。
Further, in FIG. 6A, Wσ = 0.1, WA
= AA = 0, the comparison result when the threshold variance aσ is changed is shown. It can be seen that the superiority or inferiority does not fluctuate even if aσ changes, and the influence of the threshold dispersion can be almost ignored.

【0028】最後に、図6(B)は、Wσ=0.1、W
A=aσ=0として、しきい値の平均aAを変化させたと
きの比較結果を示す。混合法はaAが0.002以上、
MFAA法はaAが0.3以上、SA法はaAが0.7以
上において、それぞれH法と同等になる。これは、しき
い値の平均が大きくなるにつれて、エネルギ−曲面が単
調になるためであろう。混合法は、aAが0.2のとき
にホップフィ−ルドらの方法と優劣が逆転しているが、
その差は2%程度なので、これは誤差とみなせる。
Finally, in FIG. 6B, Wσ = 0.1, W
A comparison result when A = aσ = 0 and the average threshold value aA is changed is shown. In the mixing method, aA is 0.002 or more,
In the MFAA method, the aA is 0.3 or more, and in the SA method, the aA is 0.7 or more. This may be because the energy surface becomes monotonic as the threshold average increases. The mixed method is reversed from that of Hopfield et al. When aA is 0.2,
Since the difference is about 2%, this can be regarded as an error.

【0029】この他に、Wσを0.1以外の値とした場
合におけるWA、aσ、aAの変化も想定できるが、その
場合でも、アルゴリズムの優劣は同様な傾向を示すもの
と推察される。したがって、最適なアルゴリズムは、W
σのみを考慮するだけでもおおよそは推定可能であり、
厳密性が要求される場合にのみ、WA、aσ、aAについ
ても検討すれば足りるであろう。
In addition to this, changes in WA, aσ, and aA when Wσ is set to a value other than 0.1 can be assumed, and even in that case, the superiority or inferiority of the algorithm is presumed to show the same tendency. Therefore, the optimal algorithm is W
It can be roughly estimated by considering only σ,
It is sufficient to consider WA, aσ, and aA only when strictness is required.

【0030】スピングラスモデルについて各種アルゴリ
ズムの性能比較をする処理手順を、図7(A)にPAD
図で示す。図中の各ブロックにおける処理は、次のとお
りである。
The processing procedure for comparing the performances of various algorithms for the spin glass model is shown in FIG.
Shown in the figure. The processing in each block in the figure is as follows.

【0031】ブロック701:結合荷重及びしきい値を
初期状態に設定する。 ブロック702:結合荷重及びしきい値の終了状態を設
定する。 ブロック703:結合荷重がブロック702で設定した
終了状態になるまで、ブロック704ないし707を繰
り返す。 ブロック704:結合荷重を変化させる。 ブロック705:しきい値がブロック702で設定した
終了状態になるまで、ブロック706と707を繰り返
して、ブロック703へ処理を移す。 ブロック706:しきい値を変化させる。 ブロック707:諸アルゴリズムの性能比較を行なう。
すなわち、ブロック701、704、706での処理に
より特定された結合荷重としきい値の下で、各アルゴリ
ズムによりエネルギー最小化計算を行ない、得られた解
(最小エネルギー値)と、そのときのWA、Wσ、aA、
aσを記録する。解の値そのものの代りに、それらを比
較して得られる順位を記録してもよい。以上の処理が終
わると、ブロック705へ処理を移す。
Block 701: Set joint weights and thresholds to initial conditions. Block 702: Set joint weight and threshold end state. Block 703: Blocks 704 to 707 are repeated until the combined load reaches the end state set in block 702. Block 704: Change the coupling load. Block 705: Blocks 706 and 707 are repeated until the threshold value reaches the end state set in block 702, and the process proceeds to block 703. Block 706: Change threshold. Block 707: Perform performance comparison of algorithms.
That is, the energy minimization calculation is performed by each algorithm under the connection weight and the threshold value specified by the processing in blocks 701, 704, and 706, and the obtained solution (minimum energy value) and WA at that time, Wσ, aA,
Record aσ. Instead of the solution values themselves, the rank obtained by comparing them may be recorded. When the above processing is completed, the processing is moved to the block 705.

【0032】このようにして得られた性能比較の結果を
参照すれば、与えられた任意のニュ−ラルネットワ−ク
の同種統計量から、最適なアルゴリズムを選定すること
が可能であるから、その選定されたアルゴリズムを用い
て、与えられたニュ−ラルネットワ−クのエネルギ−最
小化計算を実行すればよい。図7(B)は、与えられた
ニューラルネットワークに最適なアルゴリズムを選定す
る処理手順を、PAD図で示す。図中の各ブロックにお
ける処理は、次のとおりである。
By referring to the results of the performance comparisons thus obtained, it is possible to select the optimum algorithm from the given homogenous statistics of any given neural network. The energy minimization calculation of a given neural network may be executed using the algorithm described above. FIG. 7B is a PAD diagram showing a processing procedure for selecting an optimum algorithm for a given neural network. The processing in each block in the figure is as follows.

【0033】ブロック708:与えられたニュ−ラルネ
ットワ−クの結合荷重及びしきい値の統計量Wσ、W
A、aσ、及びaAを計算する。 ブロック709:ブロック708で得た統計量に最も近
い統計量に対する、前述のアルゴリズム性能比較結果を
参照する。 ブロック710:ブロック709での参照の結果に基づ
き、最も小さいエネルギー値を与えるアルゴリズムを選
定する。なお、この観点からは同等な複数のアルゴリズ
ムが存在する場合には、他のファクター、例えば、計算
時間などに従って、選定を行なえばよい。
Block 708: Coupling weights and threshold statistics Wσ, W of a given neural network.
Calculate A, aσ, and aA. Block 709: Refer to the above-mentioned algorithm performance comparison result for the statistic closest to the statistic obtained in block 708. Block 710: Select the algorithm that gives the smallest energy value based on the result of the reference in block 709. From this point of view, when there are a plurality of equivalent algorithms, the selection may be performed according to another factor, for example, the calculation time.

【0034】次に、この選定方法の有効性を、巡回セ−
ルスマン問題(以後TSP問題と略称する)を例にとっ
て検証する。TSP問題とは、各都市を1度だけ通過し
て全都市を回るときに、都市間の移動距離の合計を最小
とする経路を求める問題である。これは、多項式で表わ
せる時間内では求解困難な、いわゆるNP完全問題であ
る。TSP問題のエネルギ−関数を次式に示す。
Next, the effectiveness of this selection method will be examined by the cyclic search.
The Rusman problem (hereinafter abbreviated as the TSP problem) will be verified as an example. The TSP problem is a problem of finding a route that minimizes the total travel distance between cities when passing through each city only once and traveling around all cities. This is a so-called NP-complete problem that is difficult to solve within a time that can be represented by a polynomial. The energy function of the TSP problem is shown in the following equation.

【0035】[0035]

【数2】 [Equation 2]

【0036】ただし、ニューロンはn行n列に配列さ
れ、各行は各都市に対応し、各列は巡回の順位に対応す
る。VXiはX行i列のニュ−ロンの出力を表わし、dXY
はX番目とY番目の都市の距離を表わし、A、B、及び
Cは任意の定数を表わす。このエネルギ−関数の第1項
は、各VXYが2値(0,1)の一方に飽和したときに最
小値“0”を取り、第2項は、各行及び各列で1個のニ
ュ−ロンのみが“1”を出力して、他のニューロンはす
べて“0”を出力するときにのみ最小値“0”を取り、
第3項は、巡回総距離に対応し、これが最小になれば解
が得られたことになる。数2を数1と対応させて、結合
荷重及びしきい値を設定する。
However, the neurons are arranged in n rows and n columns, each row corresponds to each city, and each column corresponds to the rank of the tour. V Xi represents the output of the neuron in row X and column i, and d XY
Represents the distance between the Xth and Yth cities, and A, B, and C represent arbitrary constants. The first term of this energy function takes the minimum value “0” when each V XY saturates to one of the binary values (0, 1), and the second term is one new value in each row and each column. -Only Ron outputs "1", all other neurons output "0", and take the minimum value "0",
The third term corresponds to the total traveling distance, and if this becomes the minimum, the solution has been obtained. Corresponding equation 2 to equation 1, the connection weight and the threshold value are set.

【0037】定数A、B、及びCを調節してWσ、W
A、aσ、及びaAを3通りに変化させたときの、各アル
ゴリズムで得られた規格化エネルギ−E/Nの比較を図
8に示し、図8における条件2の下で、各アルゴリズム
により得られた巡回経路を図9に示す。図9において、
(A)はH法(反復1000回)、(B)はSA法(反
復1000回)、(C)はMFAA法(反復1000
回)、(D)は混合法(MFAA法で反復10回、SA
法で1000回)により、それぞれ得られたものであ
る。
Adjusting the constants A, B, and C, Wσ, W
A comparison of normalized energy-E / N obtained by each algorithm when A, aσ, and aA are changed in three ways is shown in FIG. 8, and obtained by each algorithm under the condition 2 in FIG. The patrol route thus obtained is shown in FIG. In FIG.
(A) H method (repeated 1000 times), (B) SA method (repeated 1000 times), (C) MFAA method (repeated 1000 times).
(D), mixed method (repeated 10 times by MFAA method, SA
Method 1000 times).

【0038】条件1と条件2では、アルゴリズムの優秀
さは、混合法、MFAA法、H法、SA法の順番になっ
た。条件3では、混合法及びMFAA法とH法がほぼ同
等であり、SA法が若干劣った。この結果は、図5
(A)の対応するWσでの順位と矛盾しない。WAとaA
が大きいために、混合法及びMFAA法とH法の差は僅
かになった。しかしながら、図5(A)と同様に、Wσ
が小さくなるにつれてエネルギ−差が減少する傾向は現
れており、また、エネルギ−差は微小であっても、図9
(C)と(D)では巡回経路が異なっていることから、
単なる数値誤差ではないことが確認できる。
Under conditions 1 and 2, the algorithm excellence was in the order of the mixed method, the MFAA method, the H method, and the SA method. Under the condition 3, the mixed method, the MFAA method, and the H method were almost equivalent, and the SA method was slightly inferior. This result is shown in FIG.
It does not conflict with the corresponding rank in Wσ of (A). WA and aA
However, the difference between the mixed method and the MFAA method and the H method became small. However, as in FIG. 5A, Wσ
The energy difference tends to decrease as is smaller, and even if the energy difference is small, the difference in FIG.
Since the patrol route is different between (C) and (D),
It can be confirmed that this is not just a numerical error.

【0039】したがって、前述の方法により、複数のア
ルゴリズムの中から、与えられた問題に対して最適なア
ルゴリズムを選定することが可能である。次に、本発明
によるニューロン状態の更新方法を説明する。この方法
は、同期的状態更新方法の収束性を改善し、それによ
り、簡潔なプログラムで短時間に状態更新を行なうこと
ができ、ひいては、エネルギー最小化計算の高速化をも
たらすものである。
Therefore, it is possible to select the optimum algorithm for a given problem from a plurality of algorithms by the above method. Next, a method for updating the neuron state according to the present invention will be described. This method improves the convergence of the synchronous state update method, thereby allowing the state update to be performed in a short time with a simple program, and thus to speed up the energy minimization calculation.

【0040】本発明による状態更新方法は、次式に従っ
て、全ニューロンの状態を同期的に更新する。
The state updating method according to the present invention synchronously updates the states of all neurons according to the following equation.

【0041】[0041]

【数3】 Vi(t+1)={Vi'(t+1)+τVi(t)}/(1+τ) Vi'(t+1)=f(Vi(t))Equation 3] V i (t + 1) = {V i '(t + 1) + τV i (t)} / (1 + τ) V i' (t + 1) = f (V i (t))

【0042】ここで、Vi(t)は、時刻t、すなわち、
t番目の反復計算で得られた各ニュ−ロンの出力を表わ
す。関数fは、ニュ−ロン状態を更新するアルゴリズム
を表わし、したがって、Vi'(t+1)は、従来の同期的
更新方法で得られる、時刻t+1でのニューロン出力で
ある。パラメ−タτは、後述する範囲内で適当に選ぶこ
とができ、例えば定数でよい。τ=0にすると、通常の
同期的更新と同等になることに注意されたい。上記の式
は、本方法による状態更新の変化量が、従来方法による
変化量の1/(1+τ)に圧縮されたことを意味する。
すなわち、数3は、次式と等価である。
Here, V i (t) is the time t, that is,
The output of each neuron obtained in the t-th iteration calculation is shown. The function f represents the algorithm that updates the neuron state, so V i '(t + 1) is the neuron output at time t + 1 obtained with the conventional synchronous update method. The parameter τ can be appropriately selected within the range described later and may be, for example, a constant. Note that τ = 0 is equivalent to a normal synchronous update. The above equation means that the change amount of the state update by this method is compressed to 1 / (1 + τ) of the change amount by the conventional method.
That is, Equation 3 is equivalent to the following equation.

【0043】[0043]

【数4】 Vi(t+1)−Vi(t)={Vi'(t+1)−Vi(t)}/(1+τ)Equation 4] V i (t + 1) -V i (t) = {V i '(t + 1) -V i (t)} / (1 + τ)

【0044】この方法について、数値シミュレ−ション
により有効性を検証する。対象とするモデルは、スピン
グラスモデル(ニュ−ロン数50)とし、MFAA法を
適用した。
The effectiveness of this method is verified by numerical simulation. The target model was a spin glass model (Neuron number 50), and the MFAA method was applied.

【0045】まず、数3に示した方法において、τを変
化させたときの最小エネルギ−値の変化を図10(A)
に示す。図示のグラフでは、10種類の異なる系列の正
規乱数列を初期状態として、得られた結果の平均値をプ
ロットしている。更に、10種類の初期状態のうちで収
束したものの割合を図10(B)に示す。
First, in the method shown in Equation 3, the change in the minimum energy value when τ is changed is shown in FIG.
Shown in. In the illustrated graph, the average value of the obtained results is plotted with the normal random number sequence of 10 different series as the initial state. Further, FIG. 10B shows the ratio of the converged states among the 10 types of initial states.

【0046】図10(A)よれば、τ=0からτ=0.
1までは、満足できる結果は得られない。これは、図1
0(B)が示すように、収束しなかった場合があって、
そのときの値も平均値計算に含まれるためである。τ=
0.2以上になると、全ての初期状態が収束をもたら
し、エネルギ−値も比較的安定している。ただし、τ=
0.2のときと比較して、τ=0.4では若干の劣化が
見受けられる。これは、τを大きくすると新しい状態に
変化し難くなるためであろう。したがって、τの値は、
0.2以上で、かつ、あまり大き過ぎないように、設定
するのが良いといえる。
According to FIG. 10A, τ = 0 to τ = 0.
Up to 1, satisfactory results cannot be obtained. This is
As 0 (B) shows, there are cases where it did not converge,
This is because the value at that time is also included in the average value calculation. τ =
Above 0.2, all initial states cause convergence and the energy values are relatively stable. However, τ =
Compared with the case of 0.2, a slight deterioration can be seen at τ = 0.4. This is probably because increasing τ makes it difficult to change to a new state. Therefore, the value of τ is
It can be said that it is preferable to set it so that it is 0.2 or more and not too large.

【0047】次に、一般に収束性が最も良いと考えられ
る非同期計算法と、単純な同期計算法と、文献4に記載
された、奇数番目のニュ−ロン群と偶数番目のニュ−ロ
ン群を別々に同期計算するチェッカ−ボ−ド法と、本発
明の方法の4手法について、比較検討する。
Next, the asynchronous calculation method which is generally considered to have the best convergence, the simple synchronous calculation method, and the odd-numbered neuron group and the even-numbered neuron group described in Reference 4 are used. The checker-board method, which separately calculates the synchronization, and the four methods of the present invention will be compared and examined.

【0048】シミュレ−ション条件として、各手法での
反復計算回数tを10000回、パラメ−タτを0.2
とし、10種類の系列の異なる正規乱数列をニュ−ロン
の初期状態として設定した。ス−パ−コンピュ−タのベ
クトル演算によるシミュレ−ション結果を、図11に平
均値で示す。
As the simulation conditions, the number of iterations t in each method is 10,000, and the parameter τ is 0.2.
Then, 10 different normal random number sequences were set as the initial state of the neuron. The simulation result by the vector calculation of the super computer is shown in FIG. 11 as an average value.

【0049】同期計算では、非同期計算よりも高速化さ
れて計算時間は短いけれども、5種類の初期状態につい
て、2つの状態の間での振動が生じた。つまり、同期計
算法は比較的に収束性の悪い手法であることが分かる。
他方、チェッカ−ボ−ド法では、どの初期状態を与えて
も無事に収束した。計算時間は、同期計算によるよりも
長いが、非同期計算と比較すれば短い。次に、本発明の
方法によれば、収束性が良く、しかも、チェッカ−ボ−
ド法よりも高速化されていることが分かる。したがっ
て、本発明の方法は、従来のチェッカ−ボ−ド法と比較
して、高速で、かつ、プログラム記述の簡便な方法とい
うことができる。
In the synchronous calculation, the speed is higher than that in the asynchronous calculation and the calculation time is shorter, but vibration occurs between the two states for the five types of initial states. In other words, it can be seen that the synchronous calculation method has a relatively poor convergence.
On the other hand, in the checkerboard method, it converged safely regardless of the initial state. The calculation time is longer than that of the synchronous calculation, but shorter than that of the asynchronous calculation. Next, according to the method of the present invention, the convergence is good and the checkerboard
It can be seen that it is faster than the Do method. Therefore, the method of the present invention is faster and simpler in program description than the conventional checkerboard method.

【0050】叙上のシミュレ−ションではパラメ−タτ
を一定値に固定したが、τを反復番号tの関数として変
化させてもよい。その場合、tの増加につれてτを小さ
な値から大きな値へ徐々に増加させてゆけば、収束性が
一層良くなり、逆に、τを大きな値から小さな値へ徐々
に減少させてゆくと、最適解に一層近い解を得られるこ
とが期待できる。また、本方法はMFAA法以外にも適
用可能であり、同様な効果が望める。
In the above simulation, the parameter τ
Was fixed to a constant value, but τ may be changed as a function of the iteration number t. In that case, if τ is gradually increased from a small value to a large value as t increases, the convergence becomes better, and conversely, if τ is gradually decreased from a large value to a small value, it is optimal. It can be expected that a solution closer to the solution can be obtained. In addition, this method can be applied to other than the MFAA method, and similar effects can be expected.

【0051】図12は、本方法の具体的な手順をPAD
図で示す。図中の各ブロックにおける処理は、次のとお
りである。
FIG. 12 shows the detailed procedure of this method by PAD.
Shown in the figure. The processing in each block in the figure is as follows.

【0052】ブロック1201:状態更新計算の反復回
数Tを設定する。 ブロック1202:各ニューロンの初期状態を設定す
る。 ブロック1203:ブロック1201で設定された反復
回数に達するまで、ブロック1204ないし1207を
繰り返す。 ブロック1204:全ニューロンについて(i=1,
…,N)、反復t番目の出力Vi(t)から、反復t+1
番目の出力Vi'(t+1)を、選定されたエネルギ−最
小化アルゴリズムに従って同期的に計算する。 ブロック1205:パラメータτを設定する。 ブロック1206:全ニューロンについて(i=1,
…,N)、Vi(t)と、ブロック1204で算出したV
i'(t+1)と、ブロック1205で設定したτを用い
て、数3に従って新しい出力Vi(t+1)を計算す
る。
Block 1201: Set the number of iterations T of the state update calculation. Block 1202: Set the initial state of each neuron. Block 1203: Blocks 1204-1207 are repeated until the number of iterations set in block 1201 is reached. Block 1204: For all neurons (i = 1,
, N), from the t-th iteration output V i (t), iteration t + 1
The th output V i '(t + 1) is calculated synchronously according to the chosen energy-minimization algorithm. Block 1205: Set the parameter τ. Block 1206: For all neurons (i = 1,
, N), V i (t) and V calculated in block 1204
Using i ′ (t + 1) and τ set in the block 1205, a new output V i (t + 1) is calculated according to Equation 3.

【0053】この状態更新アルゴリズムは、また、前述
した諸アルゴリズムの性能比較のための計算にも、同様
に適用できることはいうまでもない。
It goes without saying that this state update algorithm can be similarly applied to the calculation for the performance comparison of the above-mentioned algorithms.

【0054】本発明は、非線形計画法のための最適アル
ゴリズムの選定及び実行にも、適用することができる。
組合せ最適化問題を解く方法の一つに非線形計画法があ
り、そのための様々なアルゴリズムが提案されていて、
問題に応じて最適なアルゴリズムを選択するのが望まし
い。それらのアルゴリズムは、ニューラルネットワーク
におけるエネルギー関数と等価な評価関数を設定して、
その最小値(又は最大値)を反復法によって探索するア
ルゴリズムに帰着する。そして、この評価関数の1次項
の係数はニューラルネットワークにおけるしきい値に対
応し、2次項の係数は結合荷重に対応する。したがっ
て、これらの探索アルゴリズムでもって前述の実施例に
おけるエネルギー最小化アルゴリズムを置き換えれば、
非線形計画法の最適アルゴリズムの選定及び実行を行な
うことができる。
The present invention can also be applied to the selection and execution of optimal algorithms for nonlinear programming.
One of the methods for solving combinatorial optimization problems is nonlinear programming, and various algorithms for it have been proposed.
It is desirable to select the optimal algorithm according to the problem. Those algorithms set the evaluation function equivalent to the energy function in the neural network,
It results in an algorithm that searches for its minimum (or maximum) by an iterative method. The coefficient of the first-order term of this evaluation function corresponds to the threshold value in the neural network, and the coefficient of the second-order term corresponds to the connection weight. Therefore, substituting the energy minimization algorithm in the above embodiment with these search algorithms,
It is possible to select and execute an optimal algorithm for nonlinear programming.

【0055】すなわち、予め、評価関数の1次項の係数
と2次項の係数のそれぞれの平均及び分散を種々に異な
らせて、複数の前記探索アルゴリズムにより最小化(又
は最大化)を行ない、得られた最小値(又は最大値)の
対比データを記憶装置に格納しておく。問題が与えられ
ると、それに対する評価関数の1次項の係数と2次項の
係数のそれぞれの平均及び分散を計算し、それらの値に
基づいて前記の対比データを参照して、最小(又は最
大)の評価関数値を与えるアルゴリズムを、最適のアル
ゴリズムとして選定し、そして実行する。このアルゴリ
ズムの実行は、ニューラルネットワークのエネルギー最
小化計算におけるのと同様な反復更新処理を含み、この
処理には、前述したような、状態変化量の圧縮を伴う同
期計算が適用できる。
In other words, the coefficient of the first-order term and the coefficient of the second-order term of the evaluation function are variously made different from each other, and the plurality of search algorithms are used for the minimization (or the maximization). The comparison data of the minimum value (or the maximum value) is stored in the storage device. Given a problem, calculate the mean and variance of the coefficients of the first-order term and the second-order term of the evaluation function, and refer to the above-mentioned contrast data based on these values to determine the minimum (or maximum) The algorithm that gives the evaluation function value of is selected as the optimum algorithm and executed. The execution of this algorithm includes an iterative updating process similar to that in the energy minimization calculation of the neural network, and for this process, the synchronous calculation accompanied by the compression of the state change amount can be applied.

【0056】本発明は、更に、ニューラルネットワーク
による連想記憶のためのアルゴリズムにも、適用するこ
とができる。一般に、結合荷重としきい値を適当に選定
することにより、ニューラルネットワークに、同程度の
深さの複数のエネルギー極小点、すなわちネツトワーク
の複数の異なる安定状態を持たせることができ、そし
て、どの安定状態に収束するかは、諸ニューロンの初期
状態に依存する。各初期状態を入力パターンに対応付
け、その初期状態から収束する安定状態を出力パターン
に対応付けることにより、連想記憶が実現される。この
ような連想記憶を実現するための種々のアルゴリズムが
あり、それらの間の優劣は、設定したい記憶内容によっ
て異なる。
The present invention can also be applied to an algorithm for associative memory by a neural network. In general, it is possible to make a neural network have multiple energy minima of similar depth, that is, multiple different stable states of the network, by choosing appropriate coupling weights and thresholds, and which Whether it converges to a stable state depends on the initial state of each neuron. Associative memory is realized by associating each initial state with an input pattern and associating a stable state that converges from the initial state with an output pattern. There are various algorithms for realizing such associative memory, and the superiority or inferiority between them depends on the memory content to be set.

【0057】本発明によれば、予め、設定すべき諸キー
パターンの間の相関量の平均と分散を変化させて各アル
ゴリズムを適用し、その結果の優劣を示す対比データを
作成して、記憶装置に格納しておく。相関量としては、
キーパターン間の内積を用いることができる。すなわ
ち、p番目のキーパターン及びq番目のキーパターンに
対するi番目のニューロンの初期状態をそれぞれV
i(p)及びVi(q)で表わせば、これらのパターンの
相関量は次式で表わされる。
According to the present invention, the respective averages and variances of the correlation amounts between the various key patterns to be set are changed in advance, each algorithm is applied, and the comparison data indicating the superiority or inferiority of the results is created and stored. Store in the device. As the correlation amount,
The dot product between key patterns can be used. That is, the initial state of the i-th neuron for the p-th key pattern and the q-th key pattern is V
When expressed by i (p) and V i (q), the correlation amount of these patterns is expressed by the following equation.

【0058】[0058]

【数5】 [Equation 5]

【0059】設定すべき一群のキーパターン中のすべて
のパターン対(p,q)についてこのような相関量を計
算し、次いでそれらの平均と分散を計算することができ
る。このようにして得られる平均と分散の値が種々に異
なる複数のキーパターン群を用意し、各キーパターン群
に各種の連想記憶アルゴリズムを適用して、結合荷重と
しきい値と出力パターンとを算定する。次いで、正しい
キーパターン及びそれらとは様々な程度で異なるパター
ンからなるテストパターン群を入力として与えて、出力
パターンを計算し、正しい応答が生じた率を対比データ
として記憶装置に格納する。設定すべきキーパターン群
が与えられると、それらのパターンの相関量の平均と分
散を計算し、それに最も近い条件の下で最高の正答率を
与えたアルゴリズムを選定して、実行する。出力パター
ンの計算に際して行なわれるニューロンの状態の反復更
新には、前述したような、状態変化量の圧縮を伴う同期
計算が適用できる。
It is possible to calculate such a correlation quantity for every pattern pair (p, q) in the group of key patterns to be set, and then to calculate their mean and variance. A plurality of key pattern groups having different average and variance values obtained in this way are prepared, and various associative memory algorithms are applied to each key pattern group to calculate the connection weight, threshold value, and output pattern. To do. Then, a group of test patterns consisting of correct key patterns and patterns different from them in various degrees is given as an input, an output pattern is calculated, and the rate at which a correct response occurs is stored in a storage device as contrast data. When the key pattern group to be set is given, the average and variance of the correlation amount of those patterns are calculated, and the algorithm giving the highest correct answer rate under the condition closest to it is selected and executed. The iterative update of the state of the neuron, which is performed when calculating the output pattern, can be applied by the synchronous calculation accompanied by the compression of the state change amount as described above.

【0060】[0060]

【発明の効果】本発明によれば、与えられる様々な多峰
性多変数関数に対してそれぞれに最も適したアルゴリズ
ムを、コンピュータにより予め選定し、そして実行する
ことができ、更に、アルゴリズムの実行に際しては、同
期計算によって計算時間を短縮しながら、しかも、確実
な収束が期待できる。したがって、一般に長時間を要す
る多峰性多変数関数の極小点又は極大点の探索を、極め
て能率良く行なうことができる。
According to the present invention, the most suitable algorithm for each given various multimodal multivariable functions can be preselected and executed by a computer. In this case, it is possible to expect reliable convergence while reducing the calculation time by synchronous calculation. Therefore, it is possible to extremely efficiently perform a search for a minimum point or a maximum point of a multimodal multivariable function that generally takes a long time.

【0061】加えて、対比データの収集のために諸アル
ゴリズムを適用する対象の変化を、統計量の変化によっ
て定めたので、比較的少量の、したがって作成も容易な
対比データによって、多種多様な関数のそれぞれに対す
る最適アルゴリズムを、的確に選定することができる。
In addition, since the change of the object to which the algorithms are applied for collecting the contrast data is determined by the change of the statistical amount, it is possible to use various kinds of functions with a relatively small amount of the contrast data. The optimum algorithm for each of these can be selected accurately.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明のシステム構成を示すブロックダイヤグ
ラム。
FIG. 1 is a block diagram showing a system configuration of the present invention.

【図2】相互結合型ニュ−ラルネットワ−クの構成を表
わす模式図。
FIG. 2 is a schematic diagram showing the configuration of an interconnected neural network.

【図3】ニュ−ロンの機能を表わす模式図。FIG. 3 is a schematic diagram showing the function of a neuron.

【図4】ニュ−ロンの出力関数を表わすグラフ。FIG. 4 is a graph showing a neuron output function.

【図5】荷重結合の統計量が変化したときのアルゴリズ
ムの性能比較を示すグラフ。
FIG. 5 is a graph showing a performance comparison of algorithms when the weighted combination statistics are changed.

【図6】しきい値の統計量が変化したときのアルゴリズ
ムの性能比較を示すグラフ。
FIG. 6 is a graph showing a performance comparison of algorithms when the threshold statistic changes.

【図7】本発明によるアルゴリズムの性能比較の処理手
順と最適アルゴリズムの選定の処理手順とを示すPAD
図。
FIG. 7 is a PAD showing a processing procedure for comparing performances of algorithms and a processing procedure for selecting an optimum algorithm according to the present invention.
Fig.

【図8】巡回セールスマン問題に適用した場合の諸アル
ゴリズムの性能比較データの例を示す図。
FIG. 8 is a diagram showing an example of performance comparison data of various algorithms when applied to a traveling salesman problem.

【図9】諸アルゴリズムにより得られた巡回セールスマ
ン問題の解の例を示す図。
FIG. 9 is a diagram showing an example of a solution of a traveling salesman problem obtained by various algorithms.

【図10】本発明の状態更新方法の効果を示すグラフ。FIG. 10 is a graph showing the effect of the state update method of the present invention.

【図11】本発明の状態更新方法と他の方法の比較デー
タを示す図。
FIG. 11 is a diagram showing comparison data between the state update method of the present invention and another method.

【図12】本発明による状態更新方法の処理手順を示す
PAD図。
FIG. 12 is a PAD diagram showing a processing procedure of a status update method according to the present invention.

【符号の説明】[Explanation of symbols]

101・・・アルゴリズム対比データと実行プログラム
を格納した記憶装置 103・・・コンピュータ 701〜707・・・対比データ作成手順 708〜710・・・最適アルゴリズム選定手順 1201〜1207・・・反復更新手順
101 ... Storage device storing algorithm comparison data and execution program 103 ... Computer 701-707 ... Comparison data creation procedure 708-710 ... Optimal algorithm selection procedure 1201-1207 ... Iterative update procedure

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】多峰性多変数関数の極小点又は極大点の探
索のための複数のアルゴリズムを、関数を特徴付ける量
の統計量の値を異にする複数の多峰性多変数関数のそれ
ぞれに適用した結果の対比を示す、対比データが格納さ
れた記憶装置と、与えられた多峰性多変数関数に最適な
アルゴリズムを、この与えられた多峰性多変数関数を特
徴付ける前記量の統計量の値と前記対比データとに基づ
いて、前記複数のアルゴリズムの中から選択する処理装
置とを備えた、最適アルゴリズム選定装置。
1. A plurality of algorithms for searching for a minimum point or a maximum point of a multimodal multivariable function, wherein each of the plurality of multimodal multivariable functions differing in the value of the statistic of the quantity characterizing the function. The storage device storing the contrast data, which shows the contrast of the results applied to the, and the optimum algorithm for the given multimodal multivariable function, and the statistics of the quantity characterizing the given multimodal multivariable function. An optimum algorithm selecting device, comprising: a processing device that selects from the plurality of algorithms based on a value of quantity and the comparison data.
【請求項2】請求項1において、前記統計量は平均及び
分散の少なくとも一方を含む、最適アルゴリズム選定装
置。
2. The optimum algorithm selecting device according to claim 1, wherein the statistic includes at least one of a mean and a variance.
【請求項3】請求項1又は2において、前記関数はニュ
ーラルネットワークのエネルギー関数であり、関数を特
徴付ける前記量はシナプスの結合荷重とニューロンのし
きい値の少なくとも一方であり、前記対比データは算出
された最小エネルギー値である、最適アルゴリズム選定
装置。
3. The function according to claim 1, wherein the function is an energy function of a neural network, the quantity characterizing the function is at least one of a synaptic connection weight and a threshold value of a neuron, and the contrast data is calculated. Optimal algorithm selection device that is the minimum energy value.
【請求項4】請求項1又は2において、前記関数は非線
形計画法における評価関数であり、関数を特徴付ける前
記量は前記評価関数における係数の少なくとも一つであ
り、前記対比データは算出された最小関数値又は最大関
数値である、最適アルゴリズム選定装置。
4. The function according to claim 1 or 2, wherein the function is an evaluation function in nonlinear programming, the quantity characterizing the function is at least one of coefficients in the evaluation function, and the contrast data is a calculated minimum. Optimal algorithm selection device that is a function value or maximum function value.
【請求項5】請求項1又は2において、前記関数はニュ
ーラルネットワークからなる連想記憶の特性を表わす関
数であり、関数の特徴を表わす前記量は連想記憶の一群
のキーパターンの相関量であり、前記対比データは連想
記憶の応答の正誤率を示すデータである、最適アルゴリ
ズム選定装置。
5. The function according to claim 1 or 2, wherein the function is a function representing a characteristic of an associative memory composed of a neural network, and the amount representing the characteristic of the function is a correlation amount of a group of key patterns of the associative memory. The optimum algorithm selecting device, wherein the comparison data is data indicating the correctness rate of the response of the associative memory.
【請求項6】請求項1ないし4のいずれかに記載された
装置において行なわれる方法であって、与えられた多峰
性多変数関数を特徴付ける量の統計量の値を計算するス
テップと、前記対比データを参照して、前記計算された
統計量の値に最も近い統計量の値に対して最小又は最大
の関数値を与えるアルゴリズムを選択するステップとを
備えた、最適アルゴリズム選定方法。
6. A method, implemented in an apparatus according to any of claims 1 to 4, for calculating the value of a statistic of a quantity characterizing a given multimodal multivariable function, said method comprising: Referring to the comparison data, and selecting an algorithm that gives a minimum or maximum function value to the statistic value closest to the calculated statistic value.
【請求項7】請求項5に記載された装置において行なわ
れる方法であって、与えられた一群のキーパターン中の
諸パターン対間の相関量の値の平均及び分散の少なくと
も一方の値を計算するステップと、前記対比データを参
照して、前記計算された値に最も近い同種の量の値に対
して最も良い正誤率を与えるアルゴリズムを選択するス
テップとを備えた、最適アルゴリズム選定方法。
7. A method performed in an apparatus according to claim 5, wherein at least one of a mean value and a variance value of correlation values between pattern pairs in a given group of key patterns is calculated. And a step of selecting, with reference to the comparison data, an algorithm that gives the best correctness rate to a value of the same kind that is closest to the calculated value.
【請求項8】請求項6又は7において、前記アルゴリズ
ム選択ステップは、実質上同一の関数値又は正誤率を与
える複数のアルゴリズムが存在するときに、それらの中
から計算時間が最短のアルゴリズムを選択する、最適ア
ルゴリズム選定方法。
8. The algorithm selecting step according to claim 6 or 7, wherein, when there are a plurality of algorithms giving substantially the same function value or correctness rate, the algorithm having the shortest calculation time is selected from them. The optimal algorithm selection method.
【請求項9】請求項1ないし5のいずれかにおいて、前
記記憶装置には、更に前記複数のアルゴリズムのそれぞ
れを実行するためのプログラムが格納されており、前記
処理装置は、選択した最適アルゴリズムの実行のための
プログラムを実行する、最適アルゴリズム実行装置。
9. The program according to claim 1, wherein the storage device further stores a program for executing each of the plurality of algorithms, and the processing device stores the selected optimum algorithm. An optimal algorithm execution device that executes a program for execution.
【請求項10】請求項9に記載された装置において前記
選択されたアルゴリズムを実行する方法であって、前記
関数の各変数の値を反復して更新するステップが、前記
選択されたアルゴリズムに従って仮の更新値を算出する
ステップと、前記仮の更新値と更新前の値の差を所定の
パラメータに従って圧縮して更新後の値を決定するステ
ップと、前記算出ステップと決定ステップを適用して全
変数の値を同期的に更新するステップを含む、最適アル
ゴリズム実行方法。
10. A method of executing the selected algorithm in an apparatus according to claim 9, wherein the step of iteratively updating the value of each variable of the function is tentative according to the selected algorithm. Of calculating the update value of, the step of compressing the difference between the tentative update value and the value before update according to a predetermined parameter to determine the value after update, and applying the calculation step and the determining step An optimal algorithm execution method comprising the step of synchronously updating the value of a variable.
【請求項11】請求項10において、前記圧縮のための
パラメータは全反復を通じて一定に保たれる、最適アル
ゴリズム実行方法。
11. The optimal algorithm execution method according to claim 10, wherein the parameters for the compression are kept constant during all iterations.
【請求項12】請求項10において、前記圧縮のための
パラメータを反復更新の回が進むにつれて一定の方向に
変更するステップを含む、最適アルゴリズム実行方法。
12. The optimum algorithm executing method according to claim 10, including a step of changing a parameter for the compression in a constant direction as the number of times of iterative update progresses.
JP3221526A 1991-09-02 1991-09-02 Device and method for selecting and executing optimum algorithm Pending JPH0561848A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3221526A JPH0561848A (en) 1991-09-02 1991-09-02 Device and method for selecting and executing optimum algorithm

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3221526A JPH0561848A (en) 1991-09-02 1991-09-02 Device and method for selecting and executing optimum algorithm

Publications (1)

Publication Number Publication Date
JPH0561848A true JPH0561848A (en) 1993-03-12

Family

ID=16768099

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3221526A Pending JPH0561848A (en) 1991-09-02 1991-09-02 Device and method for selecting and executing optimum algorithm

Country Status (1)

Country Link
JP (1) JPH0561848A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05298277A (en) * 1992-04-24 1993-11-12 Hitachi Ltd Method and device for learning neural network
JP2001188984A (en) * 1999-12-28 2001-07-10 Hitachi Software Eng Co Ltd Method and system for optimum delivery planning
GB2417349A (en) * 2002-07-19 2006-02-22 Hewlett Packard Development Co Digital-content extraction using multiple algorithms; adding and rating new ones
JP6774129B1 (en) * 2020-02-03 2020-10-21 望 窪田 Analytical equipment, analysis method and analysis program
JP2021189532A (en) * 2020-05-26 2021-12-13 Necプラットフォームズ株式会社 Pattern recognition device, learning method and learning program
WO2022091408A1 (en) * 2020-11-02 2022-05-05 日本電気株式会社 Solution finding method selection device and method

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05298277A (en) * 1992-04-24 1993-11-12 Hitachi Ltd Method and device for learning neural network
JP2001188984A (en) * 1999-12-28 2001-07-10 Hitachi Software Eng Co Ltd Method and system for optimum delivery planning
GB2417349A (en) * 2002-07-19 2006-02-22 Hewlett Packard Development Co Digital-content extraction using multiple algorithms; adding and rating new ones
JP6774129B1 (en) * 2020-02-03 2020-10-21 望 窪田 Analytical equipment, analysis method and analysis program
WO2021157124A1 (en) * 2020-02-03 2021-08-12 望 窪田 Analysis device, analysis method, and analysis program
JP2021124805A (en) * 2020-02-03 2021-08-30 望 窪田 Analysis device, analysis method, and analysis program
JP2021189532A (en) * 2020-05-26 2021-12-13 Necプラットフォームズ株式会社 Pattern recognition device, learning method and learning program
WO2022091408A1 (en) * 2020-11-02 2022-05-05 日本電気株式会社 Solution finding method selection device and method

Similar Documents

Publication Publication Date Title
CN107729999A (en) Consider the deep neural network compression method of matrix correlation
CN112052936A (en) Reinforced learning exploration method and device based on generation countermeasure mechanism
CN111445008A (en) Knowledge distillation-based neural network searching method and system
Liu et al. Multiobjective criteria for neural network structure selection and identification of nonlinear systems using genetic algorithms
CN112052947B (en) Hierarchical reinforcement learning method and device based on strategy options
JP2022058331A (en) Hybrid quantum computing architecture for solving binary optimization problems without secondary constraints
CN106650022A (en) Method for predicting fault of complex electronic device
CN116401756B (en) Solid rocket engine performance prediction method, prediction system, storage medium and equipment based on deep learning and data enhancement
CN108879732A (en) Transient stability evaluation in power system method and device
Jaddi et al. Taguchi-based parameter designing of genetic algorithm for artificial neural network training
Eldebiky et al. Correctnet: Robustness enhancement of analog in-memory computing for neural networks by error suppression and compensation
CN111260056B (en) Network model distillation method and device
CN115454988B (en) Satellite power supply system missing data complement method based on random forest network
JPH0561848A (en) Device and method for selecting and executing optimum algorithm
CN109978138A (en) The structural reliability methods of sampling based on deeply study
CN114707635A (en) Model construction method and device based on network architecture search and storage medium
Barschkis Exact and soft boundary conditions in Physics-Informed Neural Networks for the Variable Coefficient Poisson equation
CN109697511A (en) Data reasoning method, apparatus and computer equipment
CN112232565A (en) Two-stage time sequence prediction method, prediction system, terminal and medium
CN112182819A (en) A weighted graph-based structure topology optimization method, system and readable storage medium
KR102624710B1 (en) Structural response estimation method using gated recurrent unit
CN115081609A (en) An acceleration method, terminal device and storage medium in intelligent decision-making
JPH10134018A (en) Method and device for finding rule, storage device stored with rule finding program, method and device for neural learning, and storage medium stored with neural learning program
CN114021446A (en) Material level prediction method based on cyclic neural network
Liner et al. Improving neural network learning through dual variable learning rates