JP2004515002A - ニューラル・コルテックス - Google Patents
ニューラル・コルテックス Download PDFInfo
- Publication number
- JP2004515002A JP2004515002A JP2002547024A JP2002547024A JP2004515002A JP 2004515002 A JP2004515002 A JP 2004515002A JP 2002547024 A JP2002547024 A JP 2002547024A JP 2002547024 A JP2002547024 A JP 2002547024A JP 2004515002 A JP2004515002 A JP 2004515002A
- Authority
- JP
- Japan
- Prior art keywords
- pattern
- index
- recognized
- components
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Biology (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Neurology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Character Discrimination (AREA)
- Thermistors And Varistors (AREA)
- Control By Computers (AREA)
- Programmable Controllers (AREA)
Abstract
ニューラル・ネットワーク・システムは、ランダム・アクセス・メモリ(RAM)、およびコラム状トポグラフィをもつインデックス・ベースの重みの無いニューラル・ネットワークを含む。そこではバイナリ接続のパターン、および出力ノードのアクティビティの値が、RAMに格納される。情報は、ニューラル・ネットワークを使用したパターン認識によって処理されるものであり、認識すべき複数の出力パターンをパターン・インデックスに格納し、入力パターンを受け入れ、入力パターンを複数の成分に分割し、パターン・インデックスによって各成分を処理して、入力パターンに対応する認識出力パターンを識別する。
Description
【0001】
発明の分野
本発明は、インデックス・ベースのニューラル・ネットワーク、およびニューラル・ネットワークを使用したパターン認識によって情報を処理する方法に関する。詳細には、これに限定するものではないが、コラム状トポグラフィ(columnar topography)をもつインデックス・ベースの重みの無いニューラル・ネットワークを有するニューラル・ネットワーク・コンピュータ・システム、およびそれによって入力パターンが複数の成分に分割され、各成分が単一のパターン・インデックスに従って処理されて、その入力パターンに対応する認識された出力パターンを識別する方法に関する。
【0002】
発明の背景
人工ニューラル・ネットワークは、一般に人工ニューロンと呼ばれるいくつかの相互接続されたユニットで構成される構造物である。各ユニットは、入力/出力特性を有し、ローカルの計算または機能を実施する。何れのユニットの出力も、その入力/出力特性、および他のユニットとの相互接続によって決定することができる。一般に、ユニットの入力/出力特性は比較的単純である。
【0003】
人工ニューラル・ネットワークに関連する3つの主な問題がある。即ち、(a)スケーリングおよびハードウェア・サイズの実用上の制限、(b)ネットワーク・トポロジ、および(c)訓練である。スケーリングおよびハードウェア・サイズの問題が起きるのは、アプリケーションの複雑さと人工ニューラル・ネットワークのサイズとの間に関係があるからであり、高解像度の画像に適応するためのスケーリングは、実用上の限界を超えるハードウェア・リソースを必要とすることがあるからである。
【0004】
達成される全体的な機能または機能性はネットワーク・トポロジによって決定されるが、ネットワーク・トポロジの問題は、任意のアプリケーションに対する明確な規則や設計指針がないということにより生じる。
【0005】
訓練の問題は、訓練をなし遂げるのが難しいために生じる。
これらの問題に対処する試みに、n組分類器(n−Tuple Classifier)が提案されている。この分類器は、最初に提案されたRAMベースのニューラル・ネットワーク概念である。n組の概念の最初のハードウェア実装は、1979年頃にブルネル大学(Brunel University)で開発されたWISARDシステムである(「Computer Vision Systems for Industry」、1982年、I Alexander、T Stonham、およびB Wilkie著の第10章に記載されている「Computer Vision Systems for Industry: Comparisons」を参照)。WISARDシステムは、RAMベースの重みの無いニューラル・ネットワークのクラスに属する。この様式のニューラル・ネットワークは、データをRAMネットワークに書き込むことによって大量の計算ベースの訓練の問題、および普遍的なRAMベースのネットワーク構造を提案することによってトポロジの問題に対処する。しかし、WISARDタイプの普遍的な構造のネットワーク・トポロジは、生物学的なニューラル・ネットワークに見られる高いレベルのニューロン構成をシミュレートしていない。これはメモリの無駄遣いにつながり、その結果、スケーリングの問題は、RAMベースのニューラル・ネットワーク内で依然として深刻なままであり、WISARD技術の適用範囲が限定される。
【0006】
簡単な記憶タスクによって訓練の問題を克服するニューラル・ネットワークの他の例が、スパース分散メモリ(Sparse Distributed Memory)である(「Sparse Distributed Memory」、P Kanerva、1998年、ケンブリッジ・マサチューセッツ:NIT Press)。しかし、スパース分散メモリに関する問題は、WISARDシステムと同様、メモリのサイズが大きいことである。スパース分散メモリのもう1つの不利な点は、その計算の複雑さである。これは、このタイプのメモリの場合、入力単語をすべてのメモリ場所と比較しなければならないためである。
【0007】
n組分類システムは認識の方法を使用し、この方法では、ニューラル・ネットワークへの入力がいくつかの成分(n組)に分割されて、各成分が一連の成分ルックアップ・テーブルと比較される。通常、成分ごとに個々のルックアップ・テーブルがある。次いで、ネットワークは、多数のルックアップ・テーブルに照らして各成分を処理して、マッチ(整合)が存在しているかどうかを判断する。ある成分についてマッチが存在する場合、このことは、成分が認識されていることを示す。1つの入力の各成分の認識は、その入力の認識につながる。
【0008】
いくつかのルックアップ・テーブルの存在により、結果としてメモリ・サイズが大きくなる可能性がある。必要とされるメモリ・サイズは、ネットワークが識別することができる成分の数に比例する。このことは、パターン・サイズが増大するところでは、メモリの実質的な増大につながる可能性がある。例えば、人工ニューラル・ネットワークは、最初にn×nの画像を使用した画像処理アプリケーション用に設計することができる。ここではn=128である。これは、現在の標準に基づくと比較的解像度の低い画像である。処理すべき画像がn=128からn=2048へ増加する場合、ニューロン数、ネットワークのサイズは、256倍に増大する。このメモリの増大によって、ネットワークの拡張が必要となり、追加のハードウェア・モジュール・ブロックが必要になる可能性がある。画像の解像度が高くなる場合、高解像度の画像に適応するためのスケーリングが実際に達成可能なメモリ限界を超えるポイントに早く到達する。
【0009】
本発明の目的は、従来技術に存在する一部またはすべての欠点に取り組み、それを克服または軽減することである。
【0010】
発明の概要
本発明の第1の態様によれば、
(a)ランダム・アクセス・メモリ(RAM)と、
(b)コラム状トポグラフィをもつインデックス・ベースの重みの無いニューラル・ネットワークと
を含み、バイナリ接続のパターン、および出力ノードのアクティビティの値がRAMに格納される
ニューラル・ネットワーク・システムが提供される。
【0011】
ニューラル・ネットワーク・システムはコンピュータ・ハードウェア・コンポーネントを含んでいることが好ましい。
好ましい形態では、ニューラル・ネットワーク・システムはスケーリングの潜在能力を有する。スケーリングは、適切な任意の様式で達成することができる。システム的な拡張はRAMのサイズを増大させることによって達成することが好ましい。
【0012】
ニューラル・ネットワークは、適切な任意の様式で訓練することができる。ニューラル・ネットワークは、データをRAMに書き込むことによって訓練され、ネットワーク・トポロジが訓練を通して形成されることが好ましい。
【0013】
ニューラル・ネットワークの性能は、入力データの分解様式を変更し、それによって入力成分の動的範囲を変更することによって、調整可能であることが好ましい。
ニューラル・ネットワークへの入力成分が単一の共通インデックスをアドレスすることが好ましい。
【0014】
本発明の第2の態様によれば、
(a)認識すべき複数の出力パターンをパターン・インデックスに格納するステップ、
(b)入力パターンを受け入れ、入力パターンを複数の成分に分割するステップ、
(c)入力パターンに対応する認識された出力パターンを識別するために、パターン・インデックスに従って各成分を処理するステップ
を含むニューラル・ネットワークを使用したパターン認識によって情報を処理する方法が提供される。
【0015】
各出力パターンは、複数の認識される成分に分割され、それぞれの認識される成分が、認識用にパターン・インデックスに格納されることが好ましい。インデックスは、コラムで構成され、各コラムが1つまたは複数の認識される成分に対応していることが好ましい。インデックスが、認識される成分の数以下の数のコラムに分割されることが好ましい。インデックスが、認識される成分の数に等しい数のコラムに分割されることがより好ましい。
【0016】
この方法は、各入力成分が対応する認識された成分のコラムと比較されるステップと、1つまたは複数の認識される成分にスコア(点数)が割り振られるステップとを更に含むことができる。パターンのそれぞれの認識される成分に対するスコアが追加され、最高のスコアをもつ認識されるパターンが出力パターンとして識別されることが好ましい。
【0017】
次に本発明を、添付の図面を参照して更に詳しく説明する。添付の図面は、本発明の形態の例を示す。以下の説明の詳細は上記の開示の一般性を限定するものではないことを理解されたい。
【0018】
詳細な説明
本発明は、標準のデジタル・チップを使用して構築されたニューラル・カードの使用によって実施することができる。本発明は、バイナリ接続のパターン、および出力ノードのアクティビティの値をRAMに格納するコラム状トポロジをもつインデックス・ベースの重みの無いニューラル・ネットワークである。ネットワークは以下のものを提供する。
【0019】
(a)スケーリングの潜在能力:
ニューラル・ネットワークのシステム的な拡張は、以前の人工ニューラル・ネットワークのように余分なモジュール方式のビルディング・ブロックを追加するのではなく、追加のコラムを含めるためにRAMサイズを増大させることによって、またはインデックスの高さを増加することによって、達成することができる。例えば、1600万の接続は、64MBのRAMで実施することができる。
【0020】
(b)WISARDシステムなどのような従来のn組システムと比較して、必要なメモリ・サイズがN倍減少する。Nは、入力成分(n組)の数である。これは、n組分類器がN個のルックアップ・テーブルを必要とし、一方、本発明では1つの共通記憶装置だけでよいからである。
【0021】
(c)ネットワーク・トポロジが、訓練の間に自動的に形成される。
(d)訓練は、RAMへのデータの書込みへと低減される。
(e)性能は、入力成分のダイナミック・レンジを変更することによって容易に調整することができ、これは入力データの分解様式を変更することによって達成できる。
【0022】
本発明によって作られる装置を、以下、Neural Cortex(ニューラル・コルテックス(神経皮質))と呼ぶ。従来の人工ニューラル・ネットワーク、および従来のRAMベースの人工ニューラル・ネットワークはいずれも、ニューロンのような演算器のネットワークである。しかし、人間の脳の演算器は、マルチニューロン皮質柱(multi−neuron cortical column)である。本発明がベースにしている単一の共通インデックスの一般的な概念は、縦方向のコラムの集まりと説明するのが最適であり、ここでは、信号が下から上へというように伝わる。
【0023】
従来のRAMベースのニューラル・ネットワークとは異なり、ニューラル・コルテックスは、成分ルックアップ・テーブルにおけるクラス名の記憶によるものではなく、入力成分のインデックス(リンクされたデータ表現)を作成および記憶することによって動作する。このインデックスは、クラス名(クラス参照番号)を含み、訓練で作成される。
【0024】
ニューラル・コルテックスは、リトリーブのときに、n組分類器のように、入力成分によって活性化された名前を合計する。この合計動作は、ニューラル・ネットワークに特有の一般化能力(generalizing ability)を提供する。しかし、「一人の勝者がすべてを手に入れる(winner−takes−all)」戦略が使われているn組分類器とは異なり、ニューラル・コルテックスは、「複数の勝者がすべてを手に入れる(winners−take−all)」戦略を使用する。これは好みの問題ではなく、単一の共通記憶装置を使用することによってもたらされる必然である。n組分類器の場合、それぞれの入力成分(n組)が、それ自体のルックアップ・テーブルをアドレスする。ニューラル・コルテックスの場合、すべての入力成分が、単一の共通インデックスをアドレスする。これによって、メモリ・サイズが劇的に減少する。n組分類器およびスパース分散メモリの両者のシステムにおいて単一の共通インデックスがないということは、従来のRAMベースのニューラル・ネットワークではメモリ要件、即ち、そのサイズが大きいことで適用範囲をかなり制限していたというメモリ要件の点での問題があったことの理由の説明となる。
【0025】
更に、単一の共通インデックスは、ニューラル・ネットワークの拡張の問題にとって有効な解決法である。上述したように、従来の人工ニューラル・ネットワークおよび従来のRAMベースの人工ニューラル・ネットワークの両者には、アプリケーションのサイズが大きくなったときにスケーリングの問題がある。例えば、画像のサイズが128×128ピクセルから2048×2048ピクセルに増大した場合、従来の人工ニューラル・ネットワークでは、メモリを256倍増やす必要がある。なぜなら、n組の数が256のファクタ=2048×2048/128×128で増加するためである。しかし、同じ状況において逆説的に、本発明によるニューラル・コルテックスのサイズは、依然として共通のインデックスが1つだけ使用されるため、変わらないことになる。
【0026】
本発明は、入力成分の単一のパターン・インデックスを作成する。インデックスは、出力成分を含み、インデックスは、出力パターンを格納し、パターン・インデックス内に格納されたパターンを認識するようにニューロンを訓練することによって、作成される。
【0027】
出力パターンSは、各成分Siがインデックスからのコラムのアドレスとして解釈されるように、N個の成分S1、S2、・・・SNに分解される。各コラムは、それらのパターンの参照番号を記憶し、それらのパターンは、1または複数のそれらの成分に値Siを有している。各コラムは、各参照番号の1つより多いサンプルを含まない。入力Iを受け取ったとき、これはいくつかの成分I1、I2、・・・Ixに分割される。それぞれの入力成分I1からIxは、成分をパターン・インデックスと比較することによって、ネットワークによって処理される。入力Iiの成分が出力の成分Siに一致(マッチ)している場合、Siのコラムにリストされている各参照番号は、1点を取得してその合計に加算される。このプロセスが入力成分ごとに繰り返される。次いでスコアが加算されて勝者を決定する。勝者は、最高スコアを有する参照番号である。認識される出力パターンに対応している参照番号は、ネットワークによって識別される。
【0028】
図1に、パターンイ・ンデックスの一例を示している。この図では、インデックスは、3つの単語「background」、「variable」、および「mouse」を認識するように訓練またはプログラムされている。この図では、単語には参照番号1、2、3がそれぞれ割り当てられている。出力パターンは、「a」から「z」までの文字であり、これらはインデックス内にコラムとして含まれる。ネットワークが入力を受け取ったとき、入力の各成分は、この単一のパターン・インデックスを参照することによって処理される。この例では、入力は、単語「mouse」の形である。この入力は、続いて5つの文字に分けられる。各文字は、インデックスを使用することによってネットワークで処理される。ネットワークで行われる処理が同時的な性質をもっていることによって、各成分の処理が事実上確実に同時に行われるようにすることができる。以下の処理が行われる。
【0029】
(a)入力の成分「m」が処理され、この場合、1点が、変数3のものとされるスコアに加算される。
(b)入力成分「o」が処理され、1点が変数1および3に加算される。
【0030】
(c)入力成分「u」が処理され、1点が変数1および3のものとされる。
(d)入力成分「s」が処理され、1点が変数3のものとされる。
(e)入力成分「e」が処理され、1点が変数2および3のものとされる。
【0031】
次いでネットワークは、それぞれの変数のものとされる点を合計する。この場合、変数1は点数2を、変数2は点数1を、変数3は点数5を有する。最も高い点数をもつ変数が勝者であると決定され、従って識別される。点数5を持つ変数3は、単語「mouse」に対応し、従って識別されたとみなされる。
【0032】
標準RAMの場合、異なる2つのアドレスの語は常に、異なる2つのメモリ位置の方を指す。ニューラル・コルテックスの場合、もはやそうではない。例えば、入力パターンが3つの成分(a,b,c)を有し、成分のダイナミック・レンジが1バイトの場合、パターン(a,c,b)、(b,a,c)、(b,c,a)、(c,a,b)、(c,b,a)は、3という同じ点数を生成する。なぜなら、ニューラル・コルテックスは置換に関して不変であるからである。この不変性は、すべての成分(n組)が単一の共通記憶装置をアドレスするということに起因する。共通の記憶装置は、N次元の空間を1次元の空間に縮小し、従って、置換の不変性が作り出される。これは、従来のRAMベースのニューラル・ネットワークと比べてメモリ・サイズが劇的に低減することに対して払われる代償である。この不変性がニューラル・コルテックスの鍵である。同時に、これはこの手法の長所である。なぜなら、成分のダイナミック・レンジが増大したときにこの不変性は事実上無害になるからである。上記の例の場合、2バイトのダイナミック・レンジを使用することによって、パターン(a,b,c)が2個の成分パターン(ab,bc)に変換される場合、次の点数、即ち、(a,b,c)=>2、(a,c,b)=>0、(b,a,c)=>0、(b,c,a)=>1、(c,a,b)=>1、(c,b,a)=>0が得られ、従って、パターン(a,b,c)が正確に識別される。
【0033】
一般的な場合、n個の成分入力パターン(s1,s2,...,sN)を、新しいパターン、即ち、成分がより大きいダイナミック・レンジを有し且つM<Nである新しいパターン(cl,c2,...,cM)へ変換することは、ニューラル・コルテックス・カードのソフトウェア・ドライバによって行われるのが好ましい。
【0034】
この変換は、すべての入力パターンのシーケンスを1次元のカオス反復マップ(chaotic iterated map)に変換する場合には、C(カオス)変換(C(haos)−transform)と呼ぶことができる。識別の曖昧さがないことの十分条件は、C変換されたすべての入力パターンのシーケンスがカオス反復マップであるということである。これは真である。なぜなら、この場合には、すべてのパターン成分が異なり、識別の曖昧さの余地がないからである。事実、この条件は強すぎる。なぜなら、少なくとも、任意の2つのパターンが1つの成分において異なることで十分であるからである。実用的にするためにC変換の適切な近似を得ることができ、そのC変換の適切な近似は、2、3以上の成分が結合されて、例えば(a,b,c)が2つの成分パターン(ab,bc)に変換されるときに、成分のダイナミック・レンジを2バイト、3バイト、その他などに増大させることによって得ることができる。
【0035】
図2に、ニューラル・コルテックスの読み取りサイクルのブロック図を示す。ブロック「Roots(ルート)」、「Links(リンク)」、「Names(名前)」、「Score(スコア)」はRAM装置である。Σは加算器である。Tロジックは終端論理装置である。
【0036】
1.各パターン成分(A−ワード)が「Roots」RAMのアドレス・バスへ渡される。
2.「Roots」RAMの出力値Rが「Links」RAMのアドレス・バスへ渡される。
【0037】
3.「Links」RAMの出力値Lが「Names」RAMのアドレス・バスへ渡される。
4.最後に、「Names」RAMの出力値Nが「Score」RAMのアドレス・バスへ渡される。
【0038】
Lが0の場合、Tロジックはプロセスを終了する。そうでない場合、「Names」RAMの出力によって決定されるアドレスNにある「Score」RAMの内容が、値1だけ増分される。次に、「Links」RAMの出力が「Links」RAMアドレス・バスにフィードバックされる。プロセスはポイント3から繰り返す。
【0039】
図3にニューラル・コルテックスの書き込みサイクルのブロック図を示す。ブロック「Roots(ルート)」、「Links(リンク)」、「Names(名前)」はRAM装置である。CUは制御装置である。
【0040】
1.各パターン成分Aが「Roots」RAMのアドレス・バスへ渡される。
2.「Roots」RAMの出力値Rが「Links」RAMのアドレス・バスへ渡される。
【0041】
3.「Links」RAMの出力値Lが「Names」RAMのアドレス・バスへ渡される。「Names」RAMの出力値をNで表し、現在のパターン名をPで表す。
【0042】
4.値R、L、N、およびPが制御装置に渡され、ここで次の論理が使用される。Lが0の場合、制御装置は、「Roots」RAM、「Links」RAM、および「Names」RAMを更新することを決める(ポイント5)。そうでない場合、Lは、「Links」RAMアドレス・バスへフィードバックされる。プロセスはポイント3から繰り返す。
【0043】
5.判断論理:
a)N=Pの場合、処理を終了する
R=0の場合、カウンタ値Cを1だけ増分する
Cを「Roots」RAMにアドレスAで書き込む
Cを「Links」RAMにアドレスRで書き込む
Pを「Names」RAMにアドレスLで書き込む
R>0かつL=0の場合、カウンタ値Cを1だけ増分する
Cを「Links」RAMにアドレスRで書き込む
Pを「Names」RAMにアドレスLで書き込む
b)プロセスを終了する。
【0044】
ニューラル・コルテックスの性能は、メモリ・サイズおよび読取り/書込み回数の点で調整することができる。普通は、訓練が続行するにつれてクラスの数が増加したとき、記憶回数および呼戻し回数が増える。クラスの追加によって、インデックス・コラムに格納される参照番号の量が増え、従って、アクセスする必要のあるインデックス・セルの量が増える。救済策として、入力パターン成分のダイナミック・レンジDを増大させることができる。これによって、インデックス・コラムの数が増加する。なぜなら、インデックス・アドレスの空間がDに等しいためである。結果として、同じ量の参照番号が、より広い領域に広がり、それにより、平均インデックス高Hが減る。
【0045】
記憶および呼戻しの処理時間は、アクセスされるメモリセルの数に比例し、それはHNに比例する。ここでは、Nは、パターン成分の数である。Dが増えるにつれて、処理時間はO(N)に近づく。これは、HがDに反比例するということに従ったものである。
【0046】
メモリ・サイズはHDに比例する。しかしHは、Dよりも早く増加/減少する。従って、ダイナミック・レンジDの調整によって、メモリ・サイズを効率よく制御することができる。最悪の場合でも、ニューラル・コルテックスのサイズがCDを超えない。ここではCはパターン・クラスの数である。CDを越えない理由は、ニューラル・コルテックスは1つのみの「ルックアップ・テーブル」を有するからである。一方、従来のRAMベースの人工ニューラル・ネットワークのメモリ・サイズはCDNである。なぜなら、このタイプの人工ニューラル・ネットワークの場合、入力ルックアップ・テーブルの数が入力パターン成分の数Nに等しいためである。
【0047】
本発明の範囲を逸脱することなく、上記の部分に様々な変形、代替、および/または追加を加えることができることを理解されたい。
【図面の簡単な説明】
【図1】
図1は、本発明の一実施形態による入力の処理を示すインデックス・テーブルである。
【図2】
図2は、本発明の一実施形態による入力の処理を示す概略ブロック図である。
【図3】
図3は、本発明の一実施形態による出力の処理を示す概略ブロック図である。
発明の分野
本発明は、インデックス・ベースのニューラル・ネットワーク、およびニューラル・ネットワークを使用したパターン認識によって情報を処理する方法に関する。詳細には、これに限定するものではないが、コラム状トポグラフィ(columnar topography)をもつインデックス・ベースの重みの無いニューラル・ネットワークを有するニューラル・ネットワーク・コンピュータ・システム、およびそれによって入力パターンが複数の成分に分割され、各成分が単一のパターン・インデックスに従って処理されて、その入力パターンに対応する認識された出力パターンを識別する方法に関する。
【0002】
発明の背景
人工ニューラル・ネットワークは、一般に人工ニューロンと呼ばれるいくつかの相互接続されたユニットで構成される構造物である。各ユニットは、入力/出力特性を有し、ローカルの計算または機能を実施する。何れのユニットの出力も、その入力/出力特性、および他のユニットとの相互接続によって決定することができる。一般に、ユニットの入力/出力特性は比較的単純である。
【0003】
人工ニューラル・ネットワークに関連する3つの主な問題がある。即ち、(a)スケーリングおよびハードウェア・サイズの実用上の制限、(b)ネットワーク・トポロジ、および(c)訓練である。スケーリングおよびハードウェア・サイズの問題が起きるのは、アプリケーションの複雑さと人工ニューラル・ネットワークのサイズとの間に関係があるからであり、高解像度の画像に適応するためのスケーリングは、実用上の限界を超えるハードウェア・リソースを必要とすることがあるからである。
【0004】
達成される全体的な機能または機能性はネットワーク・トポロジによって決定されるが、ネットワーク・トポロジの問題は、任意のアプリケーションに対する明確な規則や設計指針がないということにより生じる。
【0005】
訓練の問題は、訓練をなし遂げるのが難しいために生じる。
これらの問題に対処する試みに、n組分類器(n−Tuple Classifier)が提案されている。この分類器は、最初に提案されたRAMベースのニューラル・ネットワーク概念である。n組の概念の最初のハードウェア実装は、1979年頃にブルネル大学(Brunel University)で開発されたWISARDシステムである(「Computer Vision Systems for Industry」、1982年、I Alexander、T Stonham、およびB Wilkie著の第10章に記載されている「Computer Vision Systems for Industry: Comparisons」を参照)。WISARDシステムは、RAMベースの重みの無いニューラル・ネットワークのクラスに属する。この様式のニューラル・ネットワークは、データをRAMネットワークに書き込むことによって大量の計算ベースの訓練の問題、および普遍的なRAMベースのネットワーク構造を提案することによってトポロジの問題に対処する。しかし、WISARDタイプの普遍的な構造のネットワーク・トポロジは、生物学的なニューラル・ネットワークに見られる高いレベルのニューロン構成をシミュレートしていない。これはメモリの無駄遣いにつながり、その結果、スケーリングの問題は、RAMベースのニューラル・ネットワーク内で依然として深刻なままであり、WISARD技術の適用範囲が限定される。
【0006】
簡単な記憶タスクによって訓練の問題を克服するニューラル・ネットワークの他の例が、スパース分散メモリ(Sparse Distributed Memory)である(「Sparse Distributed Memory」、P Kanerva、1998年、ケンブリッジ・マサチューセッツ:NIT Press)。しかし、スパース分散メモリに関する問題は、WISARDシステムと同様、メモリのサイズが大きいことである。スパース分散メモリのもう1つの不利な点は、その計算の複雑さである。これは、このタイプのメモリの場合、入力単語をすべてのメモリ場所と比較しなければならないためである。
【0007】
n組分類システムは認識の方法を使用し、この方法では、ニューラル・ネットワークへの入力がいくつかの成分(n組)に分割されて、各成分が一連の成分ルックアップ・テーブルと比較される。通常、成分ごとに個々のルックアップ・テーブルがある。次いで、ネットワークは、多数のルックアップ・テーブルに照らして各成分を処理して、マッチ(整合)が存在しているかどうかを判断する。ある成分についてマッチが存在する場合、このことは、成分が認識されていることを示す。1つの入力の各成分の認識は、その入力の認識につながる。
【0008】
いくつかのルックアップ・テーブルの存在により、結果としてメモリ・サイズが大きくなる可能性がある。必要とされるメモリ・サイズは、ネットワークが識別することができる成分の数に比例する。このことは、パターン・サイズが増大するところでは、メモリの実質的な増大につながる可能性がある。例えば、人工ニューラル・ネットワークは、最初にn×nの画像を使用した画像処理アプリケーション用に設計することができる。ここではn=128である。これは、現在の標準に基づくと比較的解像度の低い画像である。処理すべき画像がn=128からn=2048へ増加する場合、ニューロン数、ネットワークのサイズは、256倍に増大する。このメモリの増大によって、ネットワークの拡張が必要となり、追加のハードウェア・モジュール・ブロックが必要になる可能性がある。画像の解像度が高くなる場合、高解像度の画像に適応するためのスケーリングが実際に達成可能なメモリ限界を超えるポイントに早く到達する。
【0009】
本発明の目的は、従来技術に存在する一部またはすべての欠点に取り組み、それを克服または軽減することである。
【0010】
発明の概要
本発明の第1の態様によれば、
(a)ランダム・アクセス・メモリ(RAM)と、
(b)コラム状トポグラフィをもつインデックス・ベースの重みの無いニューラル・ネットワークと
を含み、バイナリ接続のパターン、および出力ノードのアクティビティの値がRAMに格納される
ニューラル・ネットワーク・システムが提供される。
【0011】
ニューラル・ネットワーク・システムはコンピュータ・ハードウェア・コンポーネントを含んでいることが好ましい。
好ましい形態では、ニューラル・ネットワーク・システムはスケーリングの潜在能力を有する。スケーリングは、適切な任意の様式で達成することができる。システム的な拡張はRAMのサイズを増大させることによって達成することが好ましい。
【0012】
ニューラル・ネットワークは、適切な任意の様式で訓練することができる。ニューラル・ネットワークは、データをRAMに書き込むことによって訓練され、ネットワーク・トポロジが訓練を通して形成されることが好ましい。
【0013】
ニューラル・ネットワークの性能は、入力データの分解様式を変更し、それによって入力成分の動的範囲を変更することによって、調整可能であることが好ましい。
ニューラル・ネットワークへの入力成分が単一の共通インデックスをアドレスすることが好ましい。
【0014】
本発明の第2の態様によれば、
(a)認識すべき複数の出力パターンをパターン・インデックスに格納するステップ、
(b)入力パターンを受け入れ、入力パターンを複数の成分に分割するステップ、
(c)入力パターンに対応する認識された出力パターンを識別するために、パターン・インデックスに従って各成分を処理するステップ
を含むニューラル・ネットワークを使用したパターン認識によって情報を処理する方法が提供される。
【0015】
各出力パターンは、複数の認識される成分に分割され、それぞれの認識される成分が、認識用にパターン・インデックスに格納されることが好ましい。インデックスは、コラムで構成され、各コラムが1つまたは複数の認識される成分に対応していることが好ましい。インデックスが、認識される成分の数以下の数のコラムに分割されることが好ましい。インデックスが、認識される成分の数に等しい数のコラムに分割されることがより好ましい。
【0016】
この方法は、各入力成分が対応する認識された成分のコラムと比較されるステップと、1つまたは複数の認識される成分にスコア(点数)が割り振られるステップとを更に含むことができる。パターンのそれぞれの認識される成分に対するスコアが追加され、最高のスコアをもつ認識されるパターンが出力パターンとして識別されることが好ましい。
【0017】
次に本発明を、添付の図面を参照して更に詳しく説明する。添付の図面は、本発明の形態の例を示す。以下の説明の詳細は上記の開示の一般性を限定するものではないことを理解されたい。
【0018】
詳細な説明
本発明は、標準のデジタル・チップを使用して構築されたニューラル・カードの使用によって実施することができる。本発明は、バイナリ接続のパターン、および出力ノードのアクティビティの値をRAMに格納するコラム状トポロジをもつインデックス・ベースの重みの無いニューラル・ネットワークである。ネットワークは以下のものを提供する。
【0019】
(a)スケーリングの潜在能力:
ニューラル・ネットワークのシステム的な拡張は、以前の人工ニューラル・ネットワークのように余分なモジュール方式のビルディング・ブロックを追加するのではなく、追加のコラムを含めるためにRAMサイズを増大させることによって、またはインデックスの高さを増加することによって、達成することができる。例えば、1600万の接続は、64MBのRAMで実施することができる。
【0020】
(b)WISARDシステムなどのような従来のn組システムと比較して、必要なメモリ・サイズがN倍減少する。Nは、入力成分(n組)の数である。これは、n組分類器がN個のルックアップ・テーブルを必要とし、一方、本発明では1つの共通記憶装置だけでよいからである。
【0021】
(c)ネットワーク・トポロジが、訓練の間に自動的に形成される。
(d)訓練は、RAMへのデータの書込みへと低減される。
(e)性能は、入力成分のダイナミック・レンジを変更することによって容易に調整することができ、これは入力データの分解様式を変更することによって達成できる。
【0022】
本発明によって作られる装置を、以下、Neural Cortex(ニューラル・コルテックス(神経皮質))と呼ぶ。従来の人工ニューラル・ネットワーク、および従来のRAMベースの人工ニューラル・ネットワークはいずれも、ニューロンのような演算器のネットワークである。しかし、人間の脳の演算器は、マルチニューロン皮質柱(multi−neuron cortical column)である。本発明がベースにしている単一の共通インデックスの一般的な概念は、縦方向のコラムの集まりと説明するのが最適であり、ここでは、信号が下から上へというように伝わる。
【0023】
従来のRAMベースのニューラル・ネットワークとは異なり、ニューラル・コルテックスは、成分ルックアップ・テーブルにおけるクラス名の記憶によるものではなく、入力成分のインデックス(リンクされたデータ表現)を作成および記憶することによって動作する。このインデックスは、クラス名(クラス参照番号)を含み、訓練で作成される。
【0024】
ニューラル・コルテックスは、リトリーブのときに、n組分類器のように、入力成分によって活性化された名前を合計する。この合計動作は、ニューラル・ネットワークに特有の一般化能力(generalizing ability)を提供する。しかし、「一人の勝者がすべてを手に入れる(winner−takes−all)」戦略が使われているn組分類器とは異なり、ニューラル・コルテックスは、「複数の勝者がすべてを手に入れる(winners−take−all)」戦略を使用する。これは好みの問題ではなく、単一の共通記憶装置を使用することによってもたらされる必然である。n組分類器の場合、それぞれの入力成分(n組)が、それ自体のルックアップ・テーブルをアドレスする。ニューラル・コルテックスの場合、すべての入力成分が、単一の共通インデックスをアドレスする。これによって、メモリ・サイズが劇的に減少する。n組分類器およびスパース分散メモリの両者のシステムにおいて単一の共通インデックスがないということは、従来のRAMベースのニューラル・ネットワークではメモリ要件、即ち、そのサイズが大きいことで適用範囲をかなり制限していたというメモリ要件の点での問題があったことの理由の説明となる。
【0025】
更に、単一の共通インデックスは、ニューラル・ネットワークの拡張の問題にとって有効な解決法である。上述したように、従来の人工ニューラル・ネットワークおよび従来のRAMベースの人工ニューラル・ネットワークの両者には、アプリケーションのサイズが大きくなったときにスケーリングの問題がある。例えば、画像のサイズが128×128ピクセルから2048×2048ピクセルに増大した場合、従来の人工ニューラル・ネットワークでは、メモリを256倍増やす必要がある。なぜなら、n組の数が256のファクタ=2048×2048/128×128で増加するためである。しかし、同じ状況において逆説的に、本発明によるニューラル・コルテックスのサイズは、依然として共通のインデックスが1つだけ使用されるため、変わらないことになる。
【0026】
本発明は、入力成分の単一のパターン・インデックスを作成する。インデックスは、出力成分を含み、インデックスは、出力パターンを格納し、パターン・インデックス内に格納されたパターンを認識するようにニューロンを訓練することによって、作成される。
【0027】
出力パターンSは、各成分Siがインデックスからのコラムのアドレスとして解釈されるように、N個の成分S1、S2、・・・SNに分解される。各コラムは、それらのパターンの参照番号を記憶し、それらのパターンは、1または複数のそれらの成分に値Siを有している。各コラムは、各参照番号の1つより多いサンプルを含まない。入力Iを受け取ったとき、これはいくつかの成分I1、I2、・・・Ixに分割される。それぞれの入力成分I1からIxは、成分をパターン・インデックスと比較することによって、ネットワークによって処理される。入力Iiの成分が出力の成分Siに一致(マッチ)している場合、Siのコラムにリストされている各参照番号は、1点を取得してその合計に加算される。このプロセスが入力成分ごとに繰り返される。次いでスコアが加算されて勝者を決定する。勝者は、最高スコアを有する参照番号である。認識される出力パターンに対応している参照番号は、ネットワークによって識別される。
【0028】
図1に、パターンイ・ンデックスの一例を示している。この図では、インデックスは、3つの単語「background」、「variable」、および「mouse」を認識するように訓練またはプログラムされている。この図では、単語には参照番号1、2、3がそれぞれ割り当てられている。出力パターンは、「a」から「z」までの文字であり、これらはインデックス内にコラムとして含まれる。ネットワークが入力を受け取ったとき、入力の各成分は、この単一のパターン・インデックスを参照することによって処理される。この例では、入力は、単語「mouse」の形である。この入力は、続いて5つの文字に分けられる。各文字は、インデックスを使用することによってネットワークで処理される。ネットワークで行われる処理が同時的な性質をもっていることによって、各成分の処理が事実上確実に同時に行われるようにすることができる。以下の処理が行われる。
【0029】
(a)入力の成分「m」が処理され、この場合、1点が、変数3のものとされるスコアに加算される。
(b)入力成分「o」が処理され、1点が変数1および3に加算される。
【0030】
(c)入力成分「u」が処理され、1点が変数1および3のものとされる。
(d)入力成分「s」が処理され、1点が変数3のものとされる。
(e)入力成分「e」が処理され、1点が変数2および3のものとされる。
【0031】
次いでネットワークは、それぞれの変数のものとされる点を合計する。この場合、変数1は点数2を、変数2は点数1を、変数3は点数5を有する。最も高い点数をもつ変数が勝者であると決定され、従って識別される。点数5を持つ変数3は、単語「mouse」に対応し、従って識別されたとみなされる。
【0032】
標準RAMの場合、異なる2つのアドレスの語は常に、異なる2つのメモリ位置の方を指す。ニューラル・コルテックスの場合、もはやそうではない。例えば、入力パターンが3つの成分(a,b,c)を有し、成分のダイナミック・レンジが1バイトの場合、パターン(a,c,b)、(b,a,c)、(b,c,a)、(c,a,b)、(c,b,a)は、3という同じ点数を生成する。なぜなら、ニューラル・コルテックスは置換に関して不変であるからである。この不変性は、すべての成分(n組)が単一の共通記憶装置をアドレスするということに起因する。共通の記憶装置は、N次元の空間を1次元の空間に縮小し、従って、置換の不変性が作り出される。これは、従来のRAMベースのニューラル・ネットワークと比べてメモリ・サイズが劇的に低減することに対して払われる代償である。この不変性がニューラル・コルテックスの鍵である。同時に、これはこの手法の長所である。なぜなら、成分のダイナミック・レンジが増大したときにこの不変性は事実上無害になるからである。上記の例の場合、2バイトのダイナミック・レンジを使用することによって、パターン(a,b,c)が2個の成分パターン(ab,bc)に変換される場合、次の点数、即ち、(a,b,c)=>2、(a,c,b)=>0、(b,a,c)=>0、(b,c,a)=>1、(c,a,b)=>1、(c,b,a)=>0が得られ、従って、パターン(a,b,c)が正確に識別される。
【0033】
一般的な場合、n個の成分入力パターン(s1,s2,...,sN)を、新しいパターン、即ち、成分がより大きいダイナミック・レンジを有し且つM<Nである新しいパターン(cl,c2,...,cM)へ変換することは、ニューラル・コルテックス・カードのソフトウェア・ドライバによって行われるのが好ましい。
【0034】
この変換は、すべての入力パターンのシーケンスを1次元のカオス反復マップ(chaotic iterated map)に変換する場合には、C(カオス)変換(C(haos)−transform)と呼ぶことができる。識別の曖昧さがないことの十分条件は、C変換されたすべての入力パターンのシーケンスがカオス反復マップであるということである。これは真である。なぜなら、この場合には、すべてのパターン成分が異なり、識別の曖昧さの余地がないからである。事実、この条件は強すぎる。なぜなら、少なくとも、任意の2つのパターンが1つの成分において異なることで十分であるからである。実用的にするためにC変換の適切な近似を得ることができ、そのC変換の適切な近似は、2、3以上の成分が結合されて、例えば(a,b,c)が2つの成分パターン(ab,bc)に変換されるときに、成分のダイナミック・レンジを2バイト、3バイト、その他などに増大させることによって得ることができる。
【0035】
図2に、ニューラル・コルテックスの読み取りサイクルのブロック図を示す。ブロック「Roots(ルート)」、「Links(リンク)」、「Names(名前)」、「Score(スコア)」はRAM装置である。Σは加算器である。Tロジックは終端論理装置である。
【0036】
1.各パターン成分(A−ワード)が「Roots」RAMのアドレス・バスへ渡される。
2.「Roots」RAMの出力値Rが「Links」RAMのアドレス・バスへ渡される。
【0037】
3.「Links」RAMの出力値Lが「Names」RAMのアドレス・バスへ渡される。
4.最後に、「Names」RAMの出力値Nが「Score」RAMのアドレス・バスへ渡される。
【0038】
Lが0の場合、Tロジックはプロセスを終了する。そうでない場合、「Names」RAMの出力によって決定されるアドレスNにある「Score」RAMの内容が、値1だけ増分される。次に、「Links」RAMの出力が「Links」RAMアドレス・バスにフィードバックされる。プロセスはポイント3から繰り返す。
【0039】
図3にニューラル・コルテックスの書き込みサイクルのブロック図を示す。ブロック「Roots(ルート)」、「Links(リンク)」、「Names(名前)」はRAM装置である。CUは制御装置である。
【0040】
1.各パターン成分Aが「Roots」RAMのアドレス・バスへ渡される。
2.「Roots」RAMの出力値Rが「Links」RAMのアドレス・バスへ渡される。
【0041】
3.「Links」RAMの出力値Lが「Names」RAMのアドレス・バスへ渡される。「Names」RAMの出力値をNで表し、現在のパターン名をPで表す。
【0042】
4.値R、L、N、およびPが制御装置に渡され、ここで次の論理が使用される。Lが0の場合、制御装置は、「Roots」RAM、「Links」RAM、および「Names」RAMを更新することを決める(ポイント5)。そうでない場合、Lは、「Links」RAMアドレス・バスへフィードバックされる。プロセスはポイント3から繰り返す。
【0043】
5.判断論理:
a)N=Pの場合、処理を終了する
R=0の場合、カウンタ値Cを1だけ増分する
Cを「Roots」RAMにアドレスAで書き込む
Cを「Links」RAMにアドレスRで書き込む
Pを「Names」RAMにアドレスLで書き込む
R>0かつL=0の場合、カウンタ値Cを1だけ増分する
Cを「Links」RAMにアドレスRで書き込む
Pを「Names」RAMにアドレスLで書き込む
b)プロセスを終了する。
【0044】
ニューラル・コルテックスの性能は、メモリ・サイズおよび読取り/書込み回数の点で調整することができる。普通は、訓練が続行するにつれてクラスの数が増加したとき、記憶回数および呼戻し回数が増える。クラスの追加によって、インデックス・コラムに格納される参照番号の量が増え、従って、アクセスする必要のあるインデックス・セルの量が増える。救済策として、入力パターン成分のダイナミック・レンジDを増大させることができる。これによって、インデックス・コラムの数が増加する。なぜなら、インデックス・アドレスの空間がDに等しいためである。結果として、同じ量の参照番号が、より広い領域に広がり、それにより、平均インデックス高Hが減る。
【0045】
記憶および呼戻しの処理時間は、アクセスされるメモリセルの数に比例し、それはHNに比例する。ここでは、Nは、パターン成分の数である。Dが増えるにつれて、処理時間はO(N)に近づく。これは、HがDに反比例するということに従ったものである。
【0046】
メモリ・サイズはHDに比例する。しかしHは、Dよりも早く増加/減少する。従って、ダイナミック・レンジDの調整によって、メモリ・サイズを効率よく制御することができる。最悪の場合でも、ニューラル・コルテックスのサイズがCDを超えない。ここではCはパターン・クラスの数である。CDを越えない理由は、ニューラル・コルテックスは1つのみの「ルックアップ・テーブル」を有するからである。一方、従来のRAMベースの人工ニューラル・ネットワークのメモリ・サイズはCDNである。なぜなら、このタイプの人工ニューラル・ネットワークの場合、入力ルックアップ・テーブルの数が入力パターン成分の数Nに等しいためである。
【0047】
本発明の範囲を逸脱することなく、上記の部分に様々な変形、代替、および/または追加を加えることができることを理解されたい。
【図面の簡単な説明】
【図1】
図1は、本発明の一実施形態による入力の処理を示すインデックス・テーブルである。
【図2】
図2は、本発明の一実施形態による入力の処理を示す概略ブロック図である。
【図3】
図3は、本発明の一実施形態による出力の処理を示す概略ブロック図である。
Claims (13)
- (a)ランダムアクセスメモリ(RAM)と、
(b)コラム状トポグラフィをもつインデックス・ベースの重みの無いニューラル・ネットワークと
を含み、バイナリ接続のパターンおよび出力ノードのアクティビティの値が前記RAMに格納される、
ニューラル・ネットワーク・システム。 - コンピュータ・ハードウェア・コンポーネントを含む請求項1に記載のニューラル・ネットワーク・システム。
- 前記RAMのサイズを増やすことによってシステム的な拡張が達成される請求項1または2に記載のニューラル・ネットワーク・システム。
- 前記ニューラル・ネットワークが、データを前記RAMに書き込むことによって訓練され、ネットワーク・トポロジが、訓練の間に形成される、請求項1ないし3の何れかに記載のニューラル・ネットワーク・システム。
- 性能が、入力データの分解様式を変更し、それによって入力成分のダイナミック・レンジを変更することによって調整可能である、請求項1ないし4の何れかに記載のニューラル・ネットワーク・システム。
- 入力成分が単一の共通インデックスをアドレスする、請求項1ないし5の何れかに記載のニューラル・ネットワーク・システム。
- ニューラル・ネットワークを使用したパターン認識によって情報を処理する方法であって、
(a)認識すべき複数の出力パターンをパターン・インデックスに格納するステップ、
(b)入力パターンを受け入れ、前記入力パターンを複数の成分に分割するステップ、
(c)前記パターン・インデックスに従って各成分を処理して、前記入力パターンに対応する認識された出力パターンを識別するステップ
を含む方法。 - 各出力パターンが、複数の認識される成分に分割され、各認識される成分が、認識用のパターン・インデックスに格納される、請求項7に記載の方法。
- 前記インデックスがコラムで構成され、各コラムが1または複数の認識される成分に対応する、請求項8に記載の方法。
- 前記インデックスが、認識される成分の数以下のいくつかのコラムに分割される、請求項9に記載の方法。
- 前記インデックスが、認識される成分の数に等し数のコラムに分割される、請求項9に記載の方法。
- 各入力成分が、対応する認識された成分のコラムと比較され、1または複数の認識された成分にスコアが割り振られる、請求項8ないし10の何れかに記載の方法。
- パターンのそれぞれの認識された成分に対するスコアが加算され、最高のスコアを有する認識されたパターンが出力パターンとして識別される、請求項12に記載の方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/SG2000/000182 WO2002044926A1 (en) | 2000-11-30 | 2000-11-30 | Neural cortex |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004515002A true JP2004515002A (ja) | 2004-05-20 |
Family
ID=20428883
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002547024A Pending JP2004515002A (ja) | 2000-11-30 | 2000-11-30 | ニューラル・コルテックス |
Country Status (9)
Country | Link |
---|---|
US (1) | US7305370B2 (ja) |
EP (1) | EP1340160A4 (ja) |
JP (1) | JP2004515002A (ja) |
KR (1) | KR20030057562A (ja) |
CN (1) | CN1470022A (ja) |
AU (1) | AU2001215675A1 (ja) |
CA (1) | CA2433999A1 (ja) |
MX (1) | MXPA03005942A (ja) |
WO (1) | WO2002044926A1 (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1331092C (zh) * | 2004-05-17 | 2007-08-08 | 中国科学院半导体研究所 | 模式识别专用神经网络计算机系统 |
US20060271342A1 (en) * | 2005-05-27 | 2006-11-30 | Trustees Of The University Of Pennsylvania | Cort_x: a dynamic brain model |
SG133421A1 (en) * | 2005-12-13 | 2007-07-30 | Singapore Tech Dynamics Pte | Method and apparatus for an algorithm development environment for solving a class of real-life combinatorial optimization problems |
RU2406105C2 (ru) * | 2006-06-13 | 2010-12-10 | Филипп Геннадьевич Нестерук | Способ обработки информации в нейронных сетях |
KR101037885B1 (ko) * | 2011-01-18 | 2011-05-31 | 주식회사 청오에이치앤씨 | 이동식 진공 청소장치 |
DK3251059T3 (en) | 2015-01-28 | 2019-04-01 | Google Llc | BATCH normalization STROKE |
WO2017136665A1 (en) * | 2016-02-05 | 2017-08-10 | Google Inc. | Augmenting neural networks with sparsely-accessed external memory |
JP2017182710A (ja) * | 2016-03-31 | 2017-10-05 | ソニー株式会社 | 情報処理装置、情報処理方法および情報提供方法 |
US10140574B2 (en) * | 2016-12-31 | 2018-11-27 | Via Alliance Semiconductor Co., Ltd | Neural network unit with segmentable array width rotator and re-shapeable weight memory to match segment width to provide common weights to multiple rotator segments |
KR102499396B1 (ko) | 2017-03-03 | 2023-02-13 | 삼성전자 주식회사 | 뉴럴 네트워크 장치 및 뉴럴 네트워크 장치의 동작 방법 |
CN108109694B (zh) * | 2018-01-05 | 2023-06-30 | 李向坤 | 事件判定方法及装置、存储介质、电子设备 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5285522A (en) | 1987-12-03 | 1994-02-08 | The Trustees Of The University Of Pennsylvania | Neural networks for acoustical pattern recognition |
JPH02195400A (ja) * | 1989-01-24 | 1990-08-01 | Canon Inc | 音声認識装置 |
DE69032712T2 (de) * | 1989-06-14 | 1999-07-01 | Hitachi, Ltd., Tokio/Tokyo | Hierarchischer vorsuch-typ dokument suchverfahren, vorrichtung dazu, sowie eine magnetische plattenanordnung für diese vorrichtung |
US6408402B1 (en) * | 1994-03-22 | 2002-06-18 | Hyperchip Inc. | Efficient direct replacement cell fault tolerant architecture |
GB2289969A (en) * | 1994-05-24 | 1995-12-06 | Ibm | Character segmentation |
US5621848A (en) | 1994-06-06 | 1997-04-15 | Motorola, Inc. | Method of partitioning a sequence of data frames |
DE69422406T2 (de) * | 1994-10-28 | 2000-05-04 | Hewlett-Packard Co., Palo Alto | Verfahren zum Durchführen eines Vergleichs von Datenketten |
US5995868A (en) * | 1996-01-23 | 1999-11-30 | University Of Kansas | System for the prediction, rapid detection, warning, prevention, or control of changes in activity states in the brain of a subject |
US6058206A (en) | 1997-12-01 | 2000-05-02 | Kortge; Chris Alan | Pattern recognizer with independent feature learning |
EP0935212B9 (en) * | 1998-02-05 | 2002-07-10 | Intellix A/S | N-Tuple or ram based neural network classification system and method |
-
2000
- 2000-11-30 US US10/398,279 patent/US7305370B2/en not_active Expired - Lifetime
- 2000-11-30 JP JP2002547024A patent/JP2004515002A/ja active Pending
- 2000-11-30 CN CNA008200017A patent/CN1470022A/zh active Pending
- 2000-11-30 KR KR10-2003-7007184A patent/KR20030057562A/ko not_active Ceased
- 2000-11-30 EP EP00978191A patent/EP1340160A4/en not_active Withdrawn
- 2000-11-30 MX MXPA03005942A patent/MXPA03005942A/es unknown
- 2000-11-30 AU AU2001215675A patent/AU2001215675A1/en not_active Abandoned
- 2000-11-30 WO PCT/SG2000/000182 patent/WO2002044926A1/en not_active Application Discontinuation
- 2000-11-30 CA CA002433999A patent/CA2433999A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
MXPA03005942A (es) | 2005-02-14 |
CA2433999A1 (en) | 2002-06-06 |
WO2002044926A8 (en) | 2003-10-02 |
US20040034609A1 (en) | 2004-02-19 |
WO2002044926A1 (en) | 2002-06-06 |
KR20030057562A (ko) | 2003-07-04 |
US7305370B2 (en) | 2007-12-04 |
EP1340160A1 (en) | 2003-09-03 |
EP1340160A4 (en) | 2005-03-23 |
AU2001215675A1 (en) | 2002-06-11 |
CN1470022A (zh) | 2004-01-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE69430744T2 (de) | Verbesserte Neuronalhalbleiterchipsarchitekturen und Neuronalnetzwerke darin | |
DE69430529T2 (de) | Daisy-Chain-Schaltung für die serielle Verbindung von Neuronalschaltungen | |
DE69430527T2 (de) | Schaltung für das Vorladen von Eingangsvektorbestandteilen in eine freie Neuronalschaltung während der Erkennungsphase | |
Picton | What is a neural network? | |
EP0591286B1 (en) | Neural network architecture | |
JP2004515002A (ja) | ニューラル・コルテックス | |
US5216750A (en) | Computation system and method using hamming distance | |
US5493632A (en) | Neural network employing a location addressable memory and method for operating the same | |
NZ526795A (en) | Hardware component of an index-based weightless neural cortex using a single common index with a systematic expansion | |
US6704459B1 (en) | Process and arrangement for transforming an input variable | |
WO1992004687A1 (de) | Verfahren und anordnung zur boole'schen realisierung neuronaler netze vom adaline-typ | |
JPS623474B2 (ja) | ||
Rohwer et al. | An exploration of the effect of super large n-tuples on single layer ramnets | |
Poechmueller et al. | Handwritten pattern recognition with a binary associative memory | |
Pérez et al. | Storage of structured patterns in a neural network | |
JP2591362B2 (ja) | データ選択処理方法 | |
JP3130913B2 (ja) | 信号処理装置 | |
JPH06176000A (ja) | ニューロコンピュータ | |
De Carvalho et al. | Classifying images using goal-seeking neural network architectures | |
CN113642724A (zh) | 一种高带宽存储的cnn加速器 | |
JP3216152B2 (ja) | Min回路およびmax回路ならびにそれらの接続方法 | |
Schmidt et al. | Content-based information retrieval using an embedded neural associative memory | |
Gurney | 8: Alternative node types | |
Muñoz-Gutiérrez et al. | Shared memory nodes and discriminant's reduced storage in two dimensional modified Kanerva's sparse distributed memory model | |
Gunther Palm et al. | Neural Associative Memories |