JP2006285489A - Associative memory and its software - Google Patents
Associative memory and its software Download PDFInfo
- Publication number
- JP2006285489A JP2006285489A JP2005102707A JP2005102707A JP2006285489A JP 2006285489 A JP2006285489 A JP 2006285489A JP 2005102707 A JP2005102707 A JP 2005102707A JP 2005102707 A JP2005102707 A JP 2005102707A JP 2006285489 A JP2006285489 A JP 2006285489A
- Authority
- JP
- Japan
- Prior art keywords
- attractor
- learning
- neural network
- associative
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
- Feedback Control In General (AREA)
Abstract
【課題】従来のニューラルネットワークを用いた連想記憶装置では、記憶量の大容量化と連想特性の高性能化が困難であった。
【解決手段】分類カテゴリに対応したプロトタイプとその教師信号とからなる初期学習データを学習させた初期学習の後、プロトタイプの近傍テスト入力データとその教師信号とからなるプロトタイプの近傍テストデータを用いてテストし、プロトタイプの近傍テストデータが全て正解となるまで、プロトタイプと不正解出力となったプロトタイプの近傍テストデータとの追加学習を繰り返し、得られた重み係数を設定した連想用ニューラルネットワークと、前記追加学習したプロトタイプ及び前記不正解出力を発生させたプロトタイプの近傍テスト入力データとをリング傾斜配置した学習データを学習し得られた重み係数を設定したリングメモリ用ニューラルネットワークと、アトラクタ収束検出手段、アトラクタ識別手段及び連想入力識別手段、とを有する。
【選択図】図1In an associative memory device using a conventional neural network, it is difficult to increase the storage capacity and to improve the performance of associative characteristics.
After initial learning in which initial learning data made up of a prototype corresponding to a classification category and its teacher signal is learned, the prototype's neighborhood test data made up of the prototype's neighborhood test input data and its teacher signal are used. The associative neural network in which the weighting coefficient obtained by repeating the additional learning of the prototype and the prototype neighborhood test data that became the incorrect answer output until the neighborhood test data of the prototype is correct is tested, A neural network for a ring memory in which a weighting factor obtained by learning learning data obtained by learning a ring inclination arrangement of a prototype that has been additionally learned and the prototype test input data that generated the incorrect answer output, and attractor convergence detection means, Attractor identification means and associative input identification Means, having a capital.
[Selection] Figure 1
Description
本発明は、劣化画像の雑音除去や復元機能も持った画像認識、種々のパターン認識や、不正アクセス防止などのセキュリティシステム、或いは更に高速メモリ検索などに適用可能な多層ニューラルネットワークを用いた相互連想(Hetero-Associative)記憶装置に関するものである。 The present invention relates to image recognition having a noise removal and restoration function for degraded images, various pattern recognitions, security systems such as unauthorized access prevention, or a mutual association using a multilayer neural network applicable to high-speed memory search. (Hetero-Associative) relates to a storage device.
ニューラルネットワークを用いた連想メモリの種類としては、自己連想メモリと相互(ヘテロ)連想メモリとがある。文献、Hopfield,J.J., Proc. Nationl. Acad. Sci. USA, 79,pp.2554-2558, 1982や、Associative Neural Memories Theory and Implementation Edited by Mohamad H. Hassoun OXFORD University Press 1993などに詳細が記載されている。 Types of associative memories using neural networks include self-associative memories and mutual (hetero) associative memories. Details are described in literature, Hopfield, JJ, Proc. Nationl. Acad. Sci. USA, 79, pp. 2554-2558, 1982, Associative Neural Memories Theory and Implementation Edited by Mohamad H. Hassoun OXFORD University Press 1993, etc. Yes.
図3は、従来技術としての一つのニューラルネットワークを用いた自己連想メモリの1構成例である。入力層と出力層だけから構成された2層ニューラルネットワークや3層ニューラルネットワーク(一つの中間層を持つ砂時計ニューラルネットワーク)、或いはホップフィールドネットワークとして知られる相互結合ネットワーク型のニューラルネットワークなどが用いられている。これらは自己連想ニューラルネットワークの出力信号が直接入力にフィードバックされる構成となっている。 FIG. 3 shows an example of a configuration of a self-associative memory using one neural network as a conventional technique. A two-layer neural network or three-layer neural network consisting of only an input layer and an output layer (an hourglass neural network having one intermediate layer) or an interconnected network type neural network known as a hop field network is used. Yes. These are configured such that the output signal of the self-associative neural network is directly fed back to the input.
図3の従来技術による自己連想メモリとして、自己連想用ニューラルネットワーク33の2層ニューラルネットワーク(中間層を持たない)を用いた場合について、これらの動作を簡単に説明する。
先ず、最初に連想ループ制御処理部35からの制御のもとに、入力端子11からの連想入力信号が、入力切替スイッチ4及び入力端子12を介して自己連想用ニューラルネットワーク33に入力されるとともに、アトラクタ収束検出処理部34に入力記憶される。自己連想用ニューラルネットワーク33としての学習済み2層ニューラルネットワークの出力信号が出力端子13に得られると、これを、連想ループ制御処理部35の制御の基に、入力切替スイッチ4を介して該自己連想用ニューラルネットワーク33の入力端子12にフィードバックする。この為、入力層ユニット数と出力層ユニット数は同一の構成となっている。 従って、学習入力データ(学習アトラクタ)と教師信号が同一で、これらを事前に学習させている。ここで、2層ニューラルネットワークを用いた学習では、多くの場合、重み係数は計算によって求められ設定される。
As a self-associative memory according to the prior art of FIG. 3, these operations will be briefly described in the case where a two-layer neural network (without an intermediate layer) of the self-associative
First, under the control of the associative loop
連想ループ制御処理部35により、自己連想用ニューラルネットワーク33からの出力信号を入力切替スイッチ4と入力端子12を介して自己連想用ニューラルネットワーク33へフィードバックし、再度、自己連想用ニューラルネットワーク33から出力信号を得る。この一連のフィードバック処理を連想ループ処理と呼び、そのフィードバック回数を連想ループ回数jとする。
ここで、連想ループ回数jに於ける入力端子12の自己連想用ニューラルネットワーク33の入力層への入力信号をX(j)とし、自己連想用ニューラルネットワーク33の出力信号をX(j+1)とし、連想ループ回数j+1の連想ループ処理に於いて、X(j+1)が入力端子12へ再度フィードバックされる。
The associative loop
Here, the input signal to the input layer of the self-associative
この連想ループ処理を繰り返し行った際に、前回の連想ループ処理との出力信号が同一となり、変化しなくなった状態、即ち、X(j)=X(j+1)の状態をアトラクタ収束状態と呼び、また、その時の出力信号をアトラクタと呼び、アトラクタ出力信号として出力端子13から得る。
収束し得られたアトラクタは、連想入力信号に最も近い特徴を持った学習入力データである学習アトラクタとなる場合と、スプリアス・アトラクタ(偽りのアトラクタ)となる場合とがある。スプリアス・アトラクタは、学習入力データではなく、殆どの場合は、多くの雑音を含んだデータから構成されており明確な特徴を持っていない。
When this associative loop process is repeated, the output signal from the previous associative loop process is the same and no longer changes, that is, the state of X (j) = X (j + 1) is the attractor convergence state. The output signal at that time is called an attractor, and is obtained from the
The attractor that can be converged may be a learning attractor that is learning input data having a feature closest to the associative input signal, or may be a spurious attractor (a false attractor). Spurious attractors are not learning input data, and in most cases are composed of data containing a lot of noise and do not have clear features.
このように、入力端子11の連想入力信号X(0)を入力した後、アトラクタ収束状態になるまでの一連の動作を以下に説明する。先ず、連想ループ制御処理部35からの連想ループ制御によって入力切替スイッチ4の初期設定(j=0時)を行ない、入力切替スイッチ4を介して入力端子11と入力端子12を接続する。また、アトラクタ収束検出処理部34の内部状態をリセットし、入力端子11の連想入力信号X(0)を入力記憶する。更に、連想入力信号X(0)が、入力切替スイッチ4を介して学習済み自己連想用ニューラルネットワーク33に入力信号として入力される。自己連想用ニューラルネットワーク33から出力信号X(1)が得られ、アトラクタ収束検出処理部34に該出力信号X(1)がアトラクアに収束したかどうかを検出する為に入力記憶される。
A series of operations from when the associative input signal X (0) at the
更に、連想ループ制御処理部35は、該出力信号X(1)をフィードバックし自己連想用ニューラルネットワーク33に入力する為に、連想ループ回数j=1とし、入力切替スイッチ4を切り替え、出力信号X(1)を、入力端子12を介して自己連想用ニューラルネットワーク33にフィードバック入力し、新たな出力信号X(2)を得え、アトラクタ収束検出処理部34に入力する。このような連想ループ処理を繰り返す。
ここで、X(0)が学習入力データ、即ち学習アトラクタであると、X(0)とその出力信号X(1)は等しくなり、直ちに平衡状態のアトラクタ収束状態となり、アトラクタ収束検出処理部34にて検出される。
Further, the associative loop
Here, if X (0) is learning input data, that is, a learning attractor, X (0) and its output signal X (1) are equal to each other, and the attractor convergence detection state is immediately obtained. Is detected.
即ち、アトラクタ収束検出処理部34では、X(j)とX(j+1)との一致検出を行う。但し、j≧0である。一致すると、アトラクタに収束したとして、アトラクタ収束信号を出力端子20に送出すると共に、連想ループ制御処理部35に連想ループ処理を停止するよう連想ループ処理完了信号を送出する。この時の自己連想用ニューラルネットワーク33の出力信号がアトラクタ出力信号として出力端子13に送出される。このアトラクタに収束した状態を想起状態と呼ぶ。
That is, the attractor convergence
一致しない場合には、収束していないと見なし、連想ループ制御処理部35に再度連想ループ処理を要求するために、連想ループ処理要求信号を送出する。
連想ループ制御処理部35では、連想ループ処理要求信号を受信すると、予め指定された連想ループ最大回数J未満であれば、連想ループ回数j=j+1として、連想ループ処理を再度実行するため、出力信号X(j+1)を、入力切替スイッチ4を介して入力端子12へフィードバックする。一方、連想ループ処理完了信号を受信した場合、或いは連想ループ回数jが連想ループ最大回数Jとなると、連想ループ処理を完了する。
If they do not match, it is considered that they have not converged, and an associative loop processing request signal is sent out to request the associative loop
In the associative loop
連想ループ回数j=Jの状態で連想ループ処理を完了し、アトラクタ収束検出処理部34はアトラクタ発散信号を出力端子20に送出する。
この状態は、連想ループ回数jが指定された最大回数Jとなっても、アトラクタ収束検出処理部34に於いて、X(J)とX(J+1)との一致状態が得られない状態を意味する。このアトラクタ発散識別状態は、不想起状態と呼ばれる。
The associative loop processing is completed in the state where the number of associative loops j = J, and the attractor convergence
In this state, even if the number of associative loops j is the specified maximum number J, the attractor convergence
連想ループ制御処理部35では、入力端子11に新たな連想入力信号X(0)が入力される度毎に入力切替スイッチ4及びアトラクタ収束検出処理部34とを初期設定し、上記の一連の処理を新たな連想入力信号X(0)に対して繰り返す。
The associative loop
自己連想用ニューラルネットワーク33は、重み係数が予め設定された学習済みニューラルネットワークであるが、その重み係数の学習処理では、入力端子11の学習アトラクタとして与えられた学習入力データとその出力信号とが同一の学習アトラクタとなる関係の基で重み係数を計算により得、設定している。尚、この重み係数の求め方については、前記の文献に詳細が記載されている。
The self-associative
入力端子11の連想入力信号が学習アトラクタとは異なり、これに似た連想入力信号の場合、複数回の連想ループ処理を介してアトラクタ収束状態に達し、想起される場合がある。例えば、雑音などを含む未知連想入力信号に対しても、連想ループ処理を繰り返すことにより、所望の学習アトラクタに収束し、想起が成功する場合もある。このような動作はフィルタ作用やコンテント・アドレッサブル・メモリとしての働きをする。
When the associative input signal at the
一方、アトラクタ収束検出処理部34の出力端子20からアトラクタ収束信号が送出されると同時に、出力端子13に学習アトラクアとは異なるアトラクタ出力信号が送出され、スプリアス・アトラクタ(偽りアトラクタ)と呼ばれるアトラクタ収束状態に想起される場合がある。即ち、多くの雑音や歪みを含んだ連想入力信号に対して、アトラクタ収束状態となるが、通常の学習アトラクアタとは全く異なった有意な意味を殆ど持たないスプリアス・アトラクタがアトラクタ出力信号として送出される。このスプリアス・アトラクタに収束したアトラクタ出力信号を用いる応用システムでは、誤動作の原因となる。しかしながら、従来技術では、アトラクタ出力信号に対して、学習アトラクタかスプリアス・アトラクタかのアトラクタ識別を行っていない。
On the other hand, an attractor convergence signal is sent from the
従来の自己連想用ニューラルネットワーク33での正しい想起をできるだけ成功させ、然もスプリアス・アトラクタの発生を抑えるには、学習アトラクタとしての学習入力データは互いに相関を持たない直交関係を持つ必要がある。即ち、比較的似た連想入力信号を、学習入力データとして学習記憶させる重み係数を計算し求めて設定すると、学習アトラクタ間の干渉が発生し、スプリアス・アトラクタに収束する場合が増加するか、或いは想起されない無収束の発散状態になる場合が増える。
In order to make the correct recall in the conventional self-associative
従って、自己連想用ニューラルネットワーク33の最適な重み係数によって記憶されている学習入力データ数、即ち学習アトラクタ数に大幅な制限がある。また、学習入力データ数が増えると、自己連想用ニューラルネットワーク33では、汎化能力が低く、連想ループ処理に於ける単独のフィードバック・ループによってのみアトラクタ収束を行わせることから、アトラクタに中々収束せず、アトラクタ発散状態になりやすく、然も、アトラクタに収束してもスプリアス・アトラクタになり易いなどの欠点がある。
Therefore, the number of learning input data stored by the optimum weighting coefficient of the self-associative
上記のように、自己連想用ニューラルネットワーク33を用いた自己連想メモリの最も大きな欠点は、取り得る重み係数への大きな制約による、記憶容量の少なさである。上記の文献によると、この記憶容量は、理論的に約0.12x入力層ユニット数で与えられる。
更に、互いに似た学習入力データを学習させると、互いの干渉からアトラクタ収束状態が得にくくなるなどの欠点もある。また、誤って想起されるアトラクタ収束状態でのスプリアス・アトラクタを少なくするためには、記憶容量が更に少なくなる。このように、学習入力データ数が理論的限界に近づくとアトラクタ収束が一段と困難となってくる。
As described above, the biggest drawback of the self-associative memory using the self-associative
Furthermore, when learning input data similar to each other is learned, there is a drawback that it is difficult to obtain an attractor convergence state from mutual interference. Further, in order to reduce spurious attractors in the attractor converged state that is erroneously recalled, the storage capacity is further reduced. In this way, attractor convergence becomes more difficult as the number of learned input data approaches the theoretical limit.
一方、自己連想用ニューラルネットワーク33として、2層ニューラルネットワークの代わりに、学習に於いて教師信号を用いた重み係数の適応更新により求めた重み係数を設定した3層ニューラルネットワーク(一つの中間層を持つ)を用いた場合には、上記の2層ニューラルネットワークと同様の動作を行ない、2層ニューラルネットワークより汎化能力が比較的高いことから、アトラクタに収束しやすく、また、重み係数による学習アトラクタの記憶容量も比較的大きい。汎化率を最大とする最適な中間層ユニット数は、入力層及び出力層のユニット数より一般的に小さく、砂時計型連想メモリと呼ばれる。中間層ユニット数を増やしても連想特性改善は図れない。
On the other hand, as a self-associative
記憶容量は、2層ニューラルネットワークの場合より大きく、記憶する学習アトラクタ数が入力層ユニット数よりも比較的少なければ、高性能な連想特性を実現できる。しかしながら、入力層ユニット数よりも多くなると、汎化能力が急激に劣化することから、連想能力は低下し、認識率や、学習アトラクタへの収束速度の低下、更には、スプリアス・アトラクタへの収束や、アトラクタ発散状態が急激に増加するなどの欠点を持っている。
このような従来方式では、このスプリアス・アトラクタ出力信号は、記憶している全ての学習アトラクタと比較しない限り、学習アトラクタかスプリアス・アトラクタかの区別はできず、多くの処理量を要する。
The storage capacity is larger than in the case of the two-layer neural network, and if the number of learning attractors to be stored is relatively smaller than the number of input layer units, a high-performance associative characteristic can be realized. However, if the number of input layer units increases, the generalization ability deteriorates rapidly, so the associative ability declines, the recognition rate, the convergence speed to the learning attractor, and the convergence to the spurious attractor are further reduced. In addition, there is a drawback that attractor divergence increases rapidly.
In such a conventional system, unless the spurious attractor output signal is compared with all stored learning attractors, it cannot be distinguished whether it is a learning attractor or a spurious attractor, and requires a large amount of processing.
この他の従来技術として、2つの従属接続されたニューラルネットワークを用いた相互(ヘテロ)連想メモリと呼ばれる方式がある。この方式は,図4のように、夫々教師信号を用い重み係数更新によって学習された前進ニューラルネットワーク32及び後進ニューラルネットワーク31から構成される。
As another prior art, there is a method called a mutual (hetero) associative memory using two cascaded neural networks. As shown in FIG. 4, this method includes a forward
前進ニューラルネットワーク32の出力信号としては、何れか1つのユニットのみが1となり、他のR-1個のユニットは0となるRユニットの2値出力信号形式、即ち、One out of Rと(但し、Rは出力層出力ユニット数で、分類カテゴリ数に対応)呼ばれる粗い符号化コードを用いて学習させている。これは、ニューラルネットワークの学習入力データに対応した教師信号の分類カテゴリへの対応づけが簡単であることから、殆どの多層ニューラルネットワークの出力信号形式として採り入れられ、学習させている。
As the output signal of the forward
一方、後進ニューラルネットワーク31では、前進ニューラルネットワーク32の教師信号を学習入力データとして学習させる。また、後進ニューラルネットワーク31の教師信号としては、入力切替スイッチ4を介して、前進ニューラルネットワーク32にフィードバック入力する為に、入力端子11からの前進連想入力信号X(0)と同一ユニット数の出力形式を持たせる必要があり、前進ニューラルネットワーク32の学習入力データ、即ち学習アトラクタとする。
On the other hand, in the backward
即ち、前進ニューラルネットワーク32への学習入力データが、後進ニューラルネットワーク31の出力信号として再現されるよう夫々の学習を行う。このようにして重み係数更新により学習された重み係数を、前進ニューラルネットワーク32及び後進ニューラルネットワーク31の重み係数として夫々設定する。
That is, each learning is performed so that learning input data to the forward
ここで、これらの動作を簡単に説明する。図4の入力切替スイッチ4、連想ループ制御処理部35、アトラクタ収束検出処理部34は、夫々図3のそれらと同一構成である。図3の場合と同様に、連想ループ制御処理部35からの制御信号により入力切替スイッチ4は制御され、入力端子11の前進連想入力信号X(0)が学習済みの前進ニューラルネットワーク32の入力端子12を介して入力されるよう接続を行う。また、前進連想入力信号X(0)をアトラクタ収束検出処理部34に初期設定される。前進ニューラルネットワーク32に於いて、前進連想入力信号X(0)に対応した出力信号Y(0)を出力端子13から送出し、更に入力端子17を介して学習済み後進ニューラルネットワーク31に入力する。対応した出力信号X(2)は、連想ループ制御処理部35の制御の基に、連想ループ処理として、入力切替スイッチ4を介して入力端子12にフィードバックされると共に、アトラクタ収束検出処理部34に入力記憶される。
Here, these operations will be briefly described. The input selector switch 4, the associative loop
アトラクタ収束検出処理部34に於いては、連想ループ回数jの時、記憶されている後進ニューラルネットワーク31の出力信号X(j)と、出力信号X(j+1)とが一致すると、アトラクタに収束したとみなし、アトラクタ収束信号を出力端子20から送出し、出力端子18から後進ニューラルネットワーク31の出力信号がアトラクタ出力信号として送出される。連想ループ回数j=Jに於いても、アトラクタに収束しないアトラクタ発散状態では、アトラクタ発散信号が出力端子20から送出される。
In the attractor convergence
この従来の3層ニューラルネットワークによる相互連想メモリの構成では、必要なR個の学習アトラクタとしての学習入力データと教師信号とを前進ニューラルネットワーク32に学習させることから、重み係数による記憶容量を大きくすることが出来き、然も汎化能力が2層ニューラルネットワークによる自己連想用ニューラルネットワーク33より高く、前進ニューラルネットワーク32及び後進ニューラルネットワーク31を介した連想ループ処理を行うことから、アトラクタへの収束も速く、認識率もよい。
In the configuration of the mutual associative memory using the conventional three-layer neural network, the learning input data and the teacher signal as necessary R learning attractors are learned by the forward
しかしながら、学習アトラクタとしての学習入力データ数Rが非常に多い場合、One out of Rの粗コード出力形式を用いた前進ニューラルネットワーク32では、R個の出力層ユニット数が必要で、然も同一の入力層ユニット数を持った後進ニューラルネットワーク31を準備する必要があり、ニューラルネットワーク規模が非常に大きくなる。従って、粗コード出力型前進ニューラルネットワーク32及び後進ニューラルネットワーク31の学習処理及び実行処理の演算量が膨大となる欠点を有している。
However, if the learning input data number R as a learning attractor is very large, the forward
また、一般的に学習アトラクタ間の距離が互いに近い場合には、汎化率が比較的高いことから、アトラクタ収束速度も比較的速いが、R個のユニットの粗コードからなるスパース出力信号形式が用いられることから、スプリアス・アトラクタに収束する場合が非常に多くなる。
また、お互いの距離が離れた相関の小さい学習アトラクタを学習させた前進ニューラルネットワークを用いた相互連想メモリの場合には、汎化能力を高くできず、優れた連想特性が得られない欠点を持っている。
Also, in general, when the distance between learning attractors is close to each other, the generalization rate is relatively high, so the attractor convergence speed is also relatively fast, but the sparse output signal format consisting of R units of coarse code is Since it is used, the number of cases of convergence to a spurious attractor is extremely high.
In addition, in the case of an associative memory using a forward neural network in which learning attractors with small correlations that are separated from each other are used, the generalization ability cannot be increased, and excellent associative characteristics cannot be obtained. ing.
上記では、教師信号を用い学習する粗コード出力型前進ニューラルネットワーク32について説明したが、密なコード出力型3層ニューラルネットワークを前進ニューラルネットワーク32として用いてもよい。しかしながら、粗コード出力型3層ニューラルネットワークを用いた前進ニューラルネットワーク32の場合の性能に比べて、スプリアス・アトラクタは発生しにくいものの、汎化特性が若干低く、誤った学習アトラクタに収束しやすく、認識率が低い。更に、性能が劣化するが自己組織化ネットワークを用いる場合もあるが、上記に述べた欠点を併せ持っている。
In the above description, the coarse code output type forward
上記の説明の如く、2層ニューラルネットワークによる自己連想メモリでは、入出力ユニット数が同一で限定された構成であることから、学習入力データである学習アトラクタに収束するためには、重み係数に制約があり、多くの学習入力データを記憶することが出来ない欠点を持っている。例えば、2層ニューラルネットワークに於ける記憶できる理論的最大学習入力データ数は、0.12x入力層ユニット数であり、重み係数の記憶量が非常に少ない欠点を持っている。 As described above, since the self-associative memory using the two-layer neural network has the same number of input / output units, the weighting factor is limited in order to converge to the learning attractor that is the learning input data. There is a disadvantage that a lot of learning input data cannot be stored. For example, the theoretical maximum learning input data number that can be stored in a two-layer neural network is 0.12 × input layer unit number, and has a disadvantage that the storage amount of the weight coefficient is very small.
また、3層ニューラルネットワークを用いた砂時計型自己連想メモリに於いて、記憶容量を増加させた場合、学習アトラクタ数が入力層ユニット数以上になると、汎化能力が急激に劣化し、然も粗い出力信号形式であることから、スプリアス・アトラクタ状態に収束する場合が非常に多く発生し、また、大きく雑音劣化した連想入力信号に対しては、アトラクタ収束状態に到達しないアトラクタ発散状態となる場合が非常に多いなどの欠点も有している。 In addition, in the hourglass self-associative memory using a three-layer neural network, when the storage capacity is increased, if the number of learning attractors exceeds the number of input layer units, the generalization ability deteriorates rapidly and is still rough. Because it is an output signal format, there are very many cases where it converges to the spurious attractor state, and for an associative input signal that is greatly degraded in noise, there may be an attractor divergence state that does not reach the attractor convergence state. It also has drawbacks such as very many.
上記の説明のごとく、従来の自己連想メモリや相互連想メモリは、実用的には多くの欠点を有している。2層及び3層ニューラルネットワークを用いた自己連想メモリの場合、重み係数が持つ記憶容量が小さく、多くの学習アトラクタを記憶できない。また、連想ループ処理に於いて、単独のフィードバック処理であることから、アトラクタに中々収束せず、アトラクタ発散状態になりやすく、然も、アトラクタに収束しても、所望の学習アトラクタではなく、スプリアス・アトラクタになり易いなどの欠点がある。 As described above, conventional self-associative memories and mutual associative memories have many drawbacks in practical use. In the case of a self-associative memory using two-layer and three-layer neural networks, the storage capacity of the weighting coefficient is small and many learning attractors cannot be stored. Also, since the associative loop process is a single feedback process, it does not converge to the attractor and tends to diverge the attractor, but even if it converges to the attractor, it is not a desired learning attractor but a spurious.・ There are drawbacks such as being easy to become an attractor.
一方、従来の3層ニューラルネットワークによる相互連想メモリでは、記憶容量を大幅に増加させることができるが、粗コード出力型3層ニューラルネットワークによる前進ニューラルネットワーク32を用いた場合、多くの学習アトラクタを記憶させる為には、前進ニューラルネットワーク32の出力層ユニット数を非常に大きくしなければならず、前進及び後進ニューラルネットワーク32,31の規模が非常に大きくなり、当然のことながら演算量が膨大となるとともに、正しい学習も困難となる欠点を持っている。また、同様の構成理由からスプリアス・アトラクタに非常に収束し易い欠点も有している。
On the other hand, in the conventional associative memory using the three-layer neural network, the storage capacity can be greatly increased. However, when the forward
また、密なコード出力型3層ニューラルネットワークによる前進ニューラルネットワークを用いた相互連想メモリでは、粗コード形式3層ニューラルネットワークの場合よりも汎化能力が若干劣ることから、スプリアス・アトラクタは発生しにくいものの、認識率が若干劣る欠点を持っている。
更に、互いに距離が離れた相関の小さい学習アトラクタを多く学習した前進ニューラルネットワークでは、汎化能力が低くなることから、これを用いた相互連想メモリは、優れた連想能力を実現できない欠点を持っている。
また、従来の連想メモリでは、アトラクタ識別を行っておらず、アトラクタ出力信号を用いる応用システムでは誤動作の原因となる欠点も持っている。
上記のように、連想メモリとして種々の欠点を持っている。
Moreover, in the associative memory using the forward neural network based on the dense code output type three-layer neural network, the generalization ability is slightly inferior to that in the case of the coarse code type three-layer neural network, so that spurious attractors are hardly generated. However, the recognition rate is slightly inferior.
Furthermore, in a forward neural network that learns many learning attractors that are far from each other and have a small correlation, the generalization ability is low, so the mutual associative memory using this has the disadvantage that it cannot realize excellent associative ability. Yes.
Further, the conventional associative memory does not perform attractor identification, and the application system using the attractor output signal has a defect that causes malfunction.
As described above, the associative memory has various drawbacks.
本発明の目的は、上記の問題を解決し、従来のニューラルネットワークを用いた自己連想メモリや相互連想メモリなどに比べて、非常に大きな記憶容量を持たせることができると共に、スプリアス・アトラクタに落ち込むことも非常に少なく、また、アトラクタ発散状態も非常に少なく、認識率が非常に高い高性能な連想特性を持ち、更に、分類カテゴリ識別、アトラクタ識別と、連想入力信号が学習入力データであるか、非学習入力データかの連想入力識別と、収束したアトラクタ出力信号に対応した学習入力データ読み出しも可能で、種々の応用に適した非常に優れた連想記憶装置を提供することにある。 The object of the present invention is to solve the above-mentioned problems, and can have a very large storage capacity as compared with a self-associative memory and a mutual associative memory using a conventional neural network, and falls into a spurious attractor. In addition, the attractor divergence state is very small, the recognition rate is very high, and there is a high-performance associative characteristic. Moreover, classification category identification, attractor identification, and whether the associative input signal is learning input data. It is an object of the present invention to provide an associative memory device that is capable of identifying associative input as non-learning input data and reading out learning input data corresponding to a converged attractor output signal and is suitable for various applications.
上記の問題点を解決するために、第1の手段として、自己連想用学習済みニューラルネットワーク手段1と、該自己連想用学習済みニューラルネットワーク手段1の学習入力データからなるリング傾斜配置した学習データを学習したリングメモリ用学習済みニューラルネットワーク手段5と、該自己連想用学習済みニューラルネットワーク手段1に入力された連想入力信号に対するアトラクタ収束状態を検出するアトラクタ収束検出手段2と、該リングメモリ用学習済みニューラルネットワーク手段5に記憶されている該学習入力データを順次読み出し、少なくとも該自己連想用学習済みニューラルネットワーク手段1から出力されたアトラクタに収束したアトラクタ出力信号との一致比較により、スプリアス・アトラクタか学習アトラクタかのアトラクタ識別をするアトラクタ識別手段6とを少なくとも有することを特徴とした自己連想記憶装置を構成する。
In order to solve the above-mentioned problem, as a first means, learning data arranged in a ring gradient composed of self-associative learned neural network means 1 and learning input data of the self-associative learned neural network means 1 is used. Learned neural network means 5 for ring memory, attractor
第2の手段として、相互連想用前進学習済みニューラルネットワーク手段25と、該前進学習済みニューラルネットワーク手段25からの入力信号に対する出力信号を該前進学習済みニューラルネットワーク手段25にフィードバック入力すると共にアトラクタ収束状態のアトラクタ出力信号を送出する、該前進学習済みニューラルネットワーク手段25の学習データである学習入力データと教師信号とを逆配置した学習データに対して学習した後進学習済みニューラルネットワーク手段31と、該前進学習済みニューラルネットワーク手段25の該学習入力データをリング傾斜配置した学習データを学習したリングメモリ用学習済みニューラルネットワーク手段5と、該前進学習済みニューラルネットワーク手段25に入力された連想入力信号に対するアトラクタ収束状態を検出するアトラクタ収束検出手段2と、該リングメモリ用学習済みニューラルネットワーク手段5に記憶されている該学習入力データを順次読み出し、少なくとも前記後進学習済みニューラルネットワーク手段31から出力されたアトラクタに収束したアトラクタ出力信号と一致比較することにより、該アトラクタ出力信号の学習アトラクタかスプリアス・アトラクタかのアトラクタ識別をするアトラクタ識別手段6とを少なくとも有することを特徴とした相互連想記憶装置を構成する。
As a second means, the interactive learning forward learned neural network means 25 and an output signal corresponding to the input signal from the forward learned neural network means 25 are fed back to the forward learned neural network means 25 and the attractor convergence state is obtained. A backward-learned neural network means 31 that learns learning data obtained by reversing the learning input data and the teacher signal, which are learning data of the forward-learned neural network means 25, and The learned neural network means 5 for ring memory that has learned the learning data in which the learning input data of the learned neural network means 25 is arranged in a ring gradient, and the associative input that is input to the forward learned neural network means 25 Attractor
第3の手段として、相互連想用前進学習済みニューラルネットワーク手段25と、該前進学習済みニューラルネットワーク手段25からの入力信号に対する出力信号を該前進学習済みニューラルネットワーク手段25にフィードバック入力すると共にアトラクタ収束状態のアトラクタ出力信号を送出する、該前進追習済みニューラルネットワーク手段25の学習データである学習入力データと教師信号とを逆配置した学習データに対して学習した後進学習済みニューラルネットワーク手段31と、該前進学習済みニューラルネットワーク手段25の該学習入力データをリング傾斜配置した学習データを学習したリングメモリ用学習済みニューラルネットワーク手段5と、該前進学習済みニューラルネットワーク手段25に入力された連想入力信号に対するアトラクタ収束状態を検出し、更に該前進学習済みニューラルネットワーク手段25の出力信号を用いて、該後進学習済みニューラルネットワーク手段31から出力されたアトラクタに収束したアトラクタ出力信号の学習アトラクタかスプリアス・アトラクタかのアトラクタ識別をするアトラクタ検出識別手段26と、該後進学習済みニューラルネットワーク手段31から出力されたアトラクタ出力信号を基に、該リングメモリ用学習済みニューラルネットワーク手段5から順次読み出された該学習入力データと該アトラクタ出力信号との一致比較を少なくとも行ない、該リングメモリ用学習済みニューラルネットワーク手段5からの該学習入力データの読み出しを制御するアトラクタ一致検出手段29とを少なくとも有することを特徴とした相互連想記憶装置を構成する。 As a third means, the forward-learned neural network means 25 for associative association and an output signal for the input signal from the forward-learned neural network means 25 are fed back to the forward-learned neural network means 25 and the attractor convergence state A backward-learned neural network means 31 that learns learning data obtained by reversing the learning input data and the teacher signal as learning data of the forward-followed neural network means 25, The learned neural network means 5 for the ring memory that has learned the learning data in which the learning input data of the forward learned neural network means 25 is arranged in a ring gradient, and the associative input that is input to the advanced learned neural network means 25 The attracting state of the attractor for the signal is detected, and the learning signal of the attractor output signal converged to the attractor output from the backward learned neural network means 31 is further detected using the output signal of the forward learned neural network means 25. The attractor detection / identification means 26 for identifying the attractor of the attractor and the attractor output signal output from the backward learned neural network means 31 are sequentially read from the learned neural network means 5 for the ring memory. It has at least an attractor coincidence detecting means 29 for performing at least a coincidence comparison between the learning input data and the attractor output signal and controlling reading of the learning input data from the learned neural network means 5 for the ring memory. Constituting the mutual associative memory apparatus characterized.
第4の手段として、第1、2及び第3の手段の連想記憶装置に於いて、前記リングメモリ用学習済みニューラルネットワーク手段5からの前記学習入力データと前記連想入力信号との一致比較を少なくとも行ない、該連想入力信号の学習・非学習入力データ識別を行う連想入力識別手段9を有することを特徴とした連想記憶装置を構成する。
As a fourth means, in the associative memory device of the first, second and third means, at least a coincidence comparison between the learned input data from the learned neural network means 5 for the ring memory and the associative input signal is performed. And an associative storage device characterized by comprising associative
第5の手段として、第1、2、3、及び第4の手段の連想記4装置に於いて、前記リングメモリ用学習済みニューラルネットワーク手段5から前記学習入力データを順次読み出し、記憶する学習入力データ記憶手段8を有することを特徴とした連想記憶装置を構成する。 As fifth means, in the associative memory 4 device of the first, second, third, and fourth means, learning input for sequentially reading out and storing the learning input data from the learned neural network means 5 for the ring memory An associative memory device having the data memory means 8 is configured.
第6の手段として、自己連想用学習済みニューラルネットワーク処理130と、該自己連想用学習済みニューラルネットワーク処理130の学習入力データからなるリング傾斜配置した学習データを学習したリングメモリ用学習済みニューラルネットワーク処理190と、該自己連想用学習済みニューラルネットワーク処理130に入力された連想入力信号に対するアトラクタ収束状態を検出するアトラクタ収束検出処理140と、該リングメモリ用学習ニューラルネットワーク処理190に記憶されている該学習入力データを順次読み出し、少なくとも該自己連想用学習済みニューラルネットワーク処理130から出力されたアトラクタに収束したアトラクタ出力信号との一致比較により、学習アトラクタかスプリアス・アトラクタかのアトラクタ識別をするアトラクタ識別処理260とを少なくとも有することを特徴とした自己連想記憶ソフトウェアを構成する。
As a sixth means, a learned neural network process for ring memory that has learned learning data arranged in a ring slope composed of learning input data of the self-associative learned
第7の手段として、相互連想用前進学習済みニューラルネットワーク処理430と、該前進学習済みニューラルネットワーク処理430からの入力信号に対する出力信号を該前進学習済みニューラルネットワーク430にフィードバック入力すると共にアトラクタ収束状態のアトラクタ出力信号を送出する、該前進学習済みニューラルネットワーク処理430の学習データである学習入力データと教師信号とを逆配置した学習データに対して学習した後進学習済みニューラルネットワーク処理610と、該前進学習済みニューラルネットワーク処理430の該学習入力データをリング傾斜配置した学習データを学習したリングメモリ用ニューラルネットワーク処理490と、該前進学習済みニューラルネットワーク処理430に入力された連想入力信号に対するアトラクタ収束状態を検出するアトラクタ収束検出処理440と、該リングメモリ用学習済みニューラルネットワーク処理490に記憶されている該学習入力データを順次読み出し、少なくとも該後進学習済みニューラルネットワニューラルネットワーク処理610から出力されたアトラクタに収束したアトラクタ出力信号と一致比較することにより、該アトラクタ出力信号の学習アトラクタかスプリアス・アトラクタかのアトラクタ識別をするアトラクタ識別処理560とを少なくとも有することを特徴とした相互連想記憶ソフトウェアを構成する。
As a seventh means, the forward-learned
第8の手段として、相互連想用前進学習済みニューラルネットワーク処理730と、該前進学習学習ニューラルネットワーク処理730からの入力信号に対する出力信号を該前進学習済みニューラルネットワーク処理730にフィードバック入力すると共にアトラクタ収束状態のアトラクタ出力信号を送出する、該前進学習済みニューラルネットワーク処理730の学習データである学習入力データと教師信号とを逆配置した学習データに対して学習した後進学習済みニューラルネットワーク処理610と、該前進学習済みニューラルネットワーク処理730の該学習入力データをリング傾斜配置した学習データを学習したリングメモリ用学習済みニューラルネットワーク処理490と、該前進学習済みニューラルネットワーク処理730に入力された連想入力信号に対するアトラクタ収束状態を検出し、更に該前進学習済みニューラルネットワーク処理730の出力信号を用いて、該後進学習済みニューラルネットワーク処理610から出力されたアトラクタに収束したアトラクタ出力信号の学習アトラクタかスプリアス・アトラクタかのアトラクタ識別をするアトラクタ識別処理740と、該後進学習済みニューラルネットワーク処理610から送出されたアトラクタ出力信号を基に、該リングメモリ用学習済みニューラルネットワーク処理490から順次読み出された該学習入力データと該アトラクタ出力信号との一致検出を少なくとも行ない、該リングメモリ用学習済みニューラルネットワーク処理490からの該学習入力データの読み出しを制御するアトラクタ出力ー学習入力データ一致状態判定処理520とを少なくとも有することを特徴とした相互連想記憶ソフトウェアを構成する。
第9の手段として、第6、7及び第8の手段の連想記憶ソフトウェアに於いて、前記リングメモリ用学習済みニューラルネットワーク処理730からの前記学習入力データと前記連想入力信号との一致比較を少なくとも行ない、該連想入力信号の学習・非学習入力データ識別を行う連想入力識別処理590、290を有することを特徴とした連想記憶ソフトウェアを構成する。
第10の手段として、第6、7、8、及び第9の手段の連想記憶ソフトウェアに於いて、前記リングメモリ用学習済みニューラルネットワーク処理190、490から前記学習入力データを順次読み出し、記憶する学習入力データ記憶処理200、500とを有することを特徴とした連想記憶ソフトウェアを構成する。
第11の手段として、第1から第5の前記連想用学習済みニューラルネットワーク手段1、25に於いて、分類カテゴリに対応したプロトタイプとその教師信号とからなる予め準備された初期学習データをニューラルネットワークに学習させた初期学習の後、プロトタイプの近傍テスト入力データとその教師信号とからなる予め準備されたプロトタイプの近傍テストデータを用いてテストし、不正解出力となるプロトタイプの近傍テスト入力データを追加学習入力データとしプロトタイプと共に追加学習を行ない、準備されたプロトタイプの近傍テスト入力データに対して全て正解出力となるまでプロトタイプの近傍テストデータ追加学習処理を繰り返し、得られた重み係数を設定した連想用学習済みニューラルネットワーク手段1、25を用いることを特徴とした連想記憶装置を構成する。
第12の手段として、第6から第10の前記連想用学習済みニューラルネットワーク処理130、430として、分類カテゴリに対応したプロトタイプとその教師信号とからなる予め準備された初期学習データをニューラルネットワークに学習させた初期学習の後、プロトタイプの近傍テスト入力データとその教師信号とからなる予め準備されたプロトタイプの近傍テストデータを用いてテストし、不正解出力となるプロトタイプの近傍テスト入力データを追加学習入力データとしプロトタイプと共に追加学習を行ない、準備されたプロトタイプの近傍テスト入力データに対して全て正解出力となるまでプロトタイプの近傍テストデータ追加学習処理を繰り返し、得られた重み係数を設定した連想用学習済みニューラルネットワーク処理130、430,730を用いることを特徴とした連想記憶ソフトウェアを構成する。
本発明の連想記憶装置は、初期学習に於いて、各分類カテゴリに一つ割り当てられた学習入力データとしての代表的なプロトタイプ以外に、追加学習入力データとして、プロトタイプの近傍テストデータも用いて追加学習した、非常に高い汎化能力を持った多層ニューラルネットワークを、自己連想メモリの自己連想用ニューラルネットワーク、及び相互連想メモリの前進ニューラルネットワークとしてそれぞれ導入している。この為、大規模な記憶容量を実現でき、然も、アトラクタ状態への吸引力も強く、アトラクタ発散状態も大幅に改善され、スプリアス・アトラクタへの収束も減少し、認識率が非常に高くなる特徴を有し優れた連想特性を実現できる。更に、分類カテゴリに対応したプロトタイプ以外に追加学習入力データを記憶したリングメモリを導入することにより、アトラクタ識別、収束した学習アトラクタに対応した、追加学習入力データも含めた一連の学習入力データを呼び出すとともに、連想入力信号の学習・非学習入力データ識別も行うことができ、従来の連想記憶装置には無い優れた特徴を有する。
As an eighth means, a forward-learned
As a ninth means, in the associative memory software of the sixth, seventh and eighth means, at least a coincidence comparison between the learning input data from the learned
As tenth means, in the associative memory software of the sixth, seventh, eighth, and ninth means, learning for sequentially reading out and storing the learning input data from the learned
As eleventh means, in the first to fifth associative learned neural network means 1 and 25, initial learning data prepared in advance comprising a prototype corresponding to a classification category and a teacher signal thereof is used as a neural network. After the initial learning, the prototype neighborhood test input data consisting of the prototype neighborhood test data and its teacher signal is used to perform the test, and the prototype neighborhood test input data that gives an incorrect answer is added. Additional learning is performed with the prototype as learning input data, and the proximity test data additional learning process of the prototype is repeated for all of the prepared prototype neighborhood test input data until the correct answer is output, and the obtained weighting factor is set. Learned neural network means 1 and 25 It constitutes an associative memory device characterized by that there.
As a twelfth means, as the sixth to tenth associative learned neural network processes 130 and 430, the initial learning data prepared from the prototype corresponding to the classification category and its teacher signal is learned in the neural network. After the initial learning, the prototype neighborhood test input data consisting of the prototype neighborhood test data and its teacher signal is used to test the prototype neighborhood test input data, which is an incorrect answer output. Additional learning is performed with the prototype as the data, and the prototype neighborhood test data additional learning process is repeated until all of the prepared prototype neighborhood test input data are correctly output, and the associated weighting coefficient is set.
In the initial learning, the associative memory device of the present invention is added by using the prototype neighborhood test data as additional learning input data in addition to the representative prototype as learning input data assigned to each classification category. The learned multi-layer neural network having a very high generalization ability is introduced as a self-associative memory self-associative memory network and a cross-associative memory forward neural network, respectively. For this reason, large-scale storage capacity can be realized, but the attractive force to the attractor state is strong, the attractor divergence state is greatly improved, the convergence to the spurious attractor is reduced, and the recognition rate is very high And can achieve excellent associative characteristics. Furthermore, by introducing a ring memory that stores additional learning input data in addition to the prototype corresponding to the classification category, a series of learning input data including the additional learning input data corresponding to the attractor identification and converged learning attractor is called. At the same time, learning / non-learning input data identification of the associative input signal can be performed, and it has an excellent feature not found in the conventional associative memory device.
本発明の第1の実施形態に於ける、リングメモリを有し、追加学習ニューラルネットワークを用いた自己連想記憶装置の構成例を図1に示す。以下の本発明の自己連想記憶装置に於いて、その基本構成の説明を簡単にする為、2値の入出力信号を用いた3層ニューラルネットワークを例に挙げ、その構成及びその動作について詳細に説明する。尚、本発明は、3層ニューラルネットワークに限るものではなく、4層以上の多層ニューラルネットワークなど教師信号を用いて学習するニューラルネットワークであればよい。 FIG. 1 shows a configuration example of a self-associative memory device having a ring memory and using an additional learning neural network in the first embodiment of the present invention. In the following self-associative memory device of the present invention, in order to simplify the description of the basic configuration, a three-layer neural network using binary input / output signals is taken as an example, and the configuration and operation thereof are described in detail. explain. The present invention is not limited to a three-layer neural network, and any neural network that learns using a teacher signal, such as a multilayer neural network having four or more layers, may be used.
図1の自己連想記憶装置は、入力端子11に入力された連想入力信号と自己連想用追加学習ニューラルネットワーク1からの出力信号の何れかを連想ループ制御処理部3からの制御信号により切替選択し、入力端子12を介して自己連想用追加学習ニューラルネットワーク1とアトラクタ収束検出処理部2とへ入力する入力切り替えスイッチ4と、入力端子12からの入力信号に対して出力信号を得、アトラクタ出力信号として出力端子13から送出するとともに、入力切り替えスイッチ4及びアトラクタ収束検出処理部2へ夫々送出する自己連想用追加学習ニューラルネットワーク1と、連想ループ制御処理部3からの制御の基に自己連想用追加学習ニューラルネットワーク1への入力信号及び出力信号とが夫々入力され、アトラクタ収束信号、或いはアトラクタ発散信号を端子20から送出するアトラクタ収束検出処理部2と、出力端子13を介して得られたアトラクタ出力信号、或いはリングメモリ用ニューラルネットワーク5の出力信号を連想ループ制御処理部3からの制御信号の基に切り替え、入力端子15を介してリングメモリ用ニューラルネットワーク5へ入力する入力切替スイッチ7と、入力端子15を介して入力された入力信号に対する出力信号を、アトラクタ識別処理部6、学習入力データメモリ8、連想入力識別処理部9及びフィードバックの為の入力切替スイッチ7へ夫々送出するリングメモリ用ニューラルネットワーク5と、端子13からのアトラクタ出力信号とリングメモリ用ニューラルネットワーク5の出力信号である学習入力データとを連想ループ制御処理部3の制御の基に記憶し出力端子16から出力する学習入力データメモリ8と、連想ループ制御処理部3の制御の基に出力端子13からのアトラクタ出力信号とリングメモリ用ニューラルネットワーク5の出力を夫々入力し、アトラクタ出力信号を識別し、アトラクタ識別信号を連想入力識別処理部9及び出力端子14へ送出するアトラクタ識別処理部6と、連想ループ制御処理部3からの制御信号及びアトラクタ識別処理部6からのアトラクタ識別信号の基に、リングメモリ用ニューラルネットワーク5の出力信号と入力端子11からの連想入力信号X(0)とにより連想入力信号の学習・非学習入力データの識別を行ない出力端子21から学習・非学習入力データ識別信号を送出する連想入力識別処理部9と、入力切替スイッチ4及び7、アトラクタ収束検出処理部2、連想入力識別処理部9及びアトラクタ識別処理部6、学習入力データメモリ8を夫々制御する連想ループ制御処理部3とから構成される。
The self-associative memory device of FIG. 1 selects either an associative input signal input to the
以下に、一連の連想ループ処理の動作を説明する。連想ループ処理に先だって、自己連想用追加学習ニューラルネットワーク1では、高性能な汎化能力を持たせるために、以下のプロトタイプの近傍テストデータ追加学習処理を実行して得られた重み係数を設定した場合について説明する。この学習処理としては、先ず、各分類カテゴリに一つ割り当てられた代表的なプロトタイプP(r)で、然も学習アトラクタを示す学習入力データと、その分類カテゴリrに対応する教師信号とからなる初期学習データに対して、全正解出力となるよう3層ニューラルネットワークを収束させる初期学習を行う。尚、当然ではあるが、プロトタイプだけを学習させた初期学習だけの重み係数を設定してもよい。また、ここでは、分類カテゴリ毎に一個のプロトタイプP(r)を用意したが、これが複数個の場合は、一個以外を近傍テスト入力データとして扱えばよい。
Hereinafter, a series of associative loop processing operations will be described. Prior to the associative loop processing, the additional learning
その後、引き続き、予め準備された、プロトタイプの近傍テスト入力データとその分類カテゴリに対応した教師信号とからなるプロトタイプの近傍テストデータを用いて、初期学習された3層ニューラルネットワークのテストを行ない、不正解出力を送出している近傍テスト入力データを学習入力データZ(r,n)、(但し、nは分類カテゴリrの学習データ番号で、0≦n≦nr)として、初期学習入力データと共に追加学習させ、これら学習入力データに対して全正解出力を送出し収束するよう追加学習を行う。その後、再度同様のテストを行ない、不正解出力があれば、その近傍テスト入力データを追加学習入力データとして加え、上記の追加学習を再度行う。このような追加学習処理を繰り返し、プロトタイプの近傍テスト入力データに対して全て正解出力が得られると追加学習処理を完了する。 Subsequently, using the prototype neighborhood test data consisting of the prototype neighborhood test input data prepared in advance and the teacher signal corresponding to the classification category, the initially learned three-layer neural network is tested. Neighboring test input data sending correct output is added as learning input data Z (r, n) (where n is the learning data number of classification category r and 0 ≦ n ≦ nr) along with initial learning input data The learning is performed, and additional learning is performed so that all correct output is transmitted and converged with respect to the learning input data. Thereafter, the same test is performed again. If there is an incorrect answer output, the neighboring test input data is added as additional learning input data, and the additional learning is performed again. Such additional learning processing is repeated, and when all the correct answers are obtained for the prototype neighborhood test input data, the additional learning processing is completed.
プロトタイプの近傍テストデータ追加学習処理が完了すると、その重み係数を自己連想用ニューラルネットワークに設定し、自己連想用追加学習ニューラルネットワーク1として用いる。尚、上記の3層ニューラルネットワークの追加学習処理については、特開平10−49509に詳細が明らかにされている。
When the prototype neighborhood test data additional learning process is completed, the weighting coefficient is set in the self-associative neural network and used as the self-associative additional learning
一方、リングメモリ用ニューラルネットワーク5に於いては、上記の追加学習処理で用いたプロトタイプP(r)からなる初期学習入力データと学習入力データZ(r,n)、(但し、0≦n≦nr、nrは、分類カテゴリrの追加学習入力データ数)とを用いて、表1に示すリングメモリ用ニューラルネットワーク5の為のリングメモリ用学習データを準備し、これらの学習入力データに対して全正解出力となり収束するよう学習を行ない、得られた重み係数をリングメモリ用ニューラルネットワーク5に設定して用いる。尚、表1に於いて、プロトタイプP(r)に対応した分類カテゴリ数、即ち、プロトタイプ数をR、カテゴリ別の追加学習入力データ数nrの内最大値をNmaxとする。
表1では、分類カテゴリrに割り当てられた初期学習入力データであるプロトタイプP(r)と、それに対応した学習入力データZ(r,n), 0≦n≦nrとを分類カテゴリ・グループとした学習データの関係を示す。グループ内の最後の追加学習入力データに対応した教師信号として、そのプロトタイプP(r)を割り当てられていることから、リング状態に配置された学習入力データを記憶させることができる。ここでは、この学習入力データとその教師信号との配置関係をリング傾斜配置と呼ぶこととする。即ち、プロトタイプP(r)とnr個の学習入力データZ(r,n),0≦n≦nrとからなる学習入力データと、これらがリング傾斜配置された教師信号とからなる分類カテゴリ別学習データを得る。 In Table 1, the prototype P (r), which is the initial learning input data assigned to the classification category r, and the corresponding learning input data Z (r, n), 0 ≦ n ≦ nr are classified category groups. The relationship of learning data is shown. Since the prototype P (r) is assigned as the teacher signal corresponding to the last additional learning input data in the group, the learning input data arranged in the ring state can be stored. Here, the arrangement relationship between the learning input data and the teacher signal is referred to as a ring inclination arrangement. That is, learning by classification category consisting of learning input data consisting of prototype P (r) and nr pieces of learning input data Z (r, n), 0 ≦ n ≦ nr, and teacher signals in which these are ring-tilted Get the data.
これら分類カテゴリ別学習データを全て学習させ、これらの学習入力データに対して全て正解出力となるよう収束させる。このように学習させた重み係数をリングメモリ用ニューラルネットワーク5に設定する。従って、端子15を介してリングメモリ用ニューラルネットワーク5にプロトタイプP(r)が入力されると、入力切替スイッチ7を介した、リングメモリの一連の出力フィードバック読み出し処理により、学習入力データZ(r,n)が順次読み出され、最後に、プロトタイプP(r)が読み出されることとなる。分類カテゴリrのグループ内の全学習入力データ読み出しループ回数はnr+1で与えられる。従って、プロトタイプであるリングメモリ入力信号がプロトタイプである場合には、同一のリングメモリ読み出し出力信号が得られるとグループ内の一連の学習入力データが全て読み出されたこととなる。 All the learning data for each classification category is learned, and the learning input data is converged so that all the correct answers are output. The weighting coefficient learned in this way is set in the ring memory neural network 5. Therefore, when the prototype P (r) is inputted to the ring memory neural network 5 via the terminal 15, the learning input data Z (r (r) is obtained by a series of output feedback read processing of the ring memory via the input changeover switch 7. , n) are read sequentially, and finally, the prototype P (r) is read. The number of all learning input data read loops in the group of the classification category r is given by nr + 1. Therefore, when the ring memory input signal that is a prototype is a prototype, when the same ring memory read output signal is obtained, a series of learning input data in the group is all read.
次に、本実施形態の、上記の自己連想用ニューラルネットワーク1及びリングメモリ用ニューラルネットワーク5を有する自己連想記憶装置の動作について説明する。連想ループ制御処理部3に於いて連想ループ回数j=0を、また、リングメモリ読み出しカウンタn=0を初期設定し、連想ループ制御信号の基に、入力切替スイッチ4の設定及びアトラクタ収束検出処理部2及び学習入力データメモリ8の内部状態、アトラクタ識別処理部6及び連想入力識別処理部9の初期設定を行う。連想入力信号X(0)が入力切替スイッチ4に入力され入力端子12を介して自己連想用追加学習ニューラルネットワーク1に入力されると共に、アトラクタ収束検出処理部2に入力記憶される。
Next, the operation of the self-associative memory device having the self-associative
また、連想入力信号X(0)は連想入力識別処理部9に入力記憶される。自己連想用追加学習ニューラルネットワーク1は、入力されたX(0)に対応した出力信号X(1)を送出し、アトラクタ収束検出処理部2へ入力する。アトラクタ収束検出処理部2では、連想ループ制御処理部3からの制御信号の基に連想ループ回数カウンタ設定(j=0)を行うとともに、入力されたX(0)とX(1)とを比較し、異なるとアトラクタ非収束状態として、連想ループ回数jをj=j+1とし、連想ループ制御処理部3に連想ループ処理要求をする。
連想ループ制御処理部3では、連想ループ処理要求があると、入力切替スイッチ4を介して自己連想用追加学習ニューラルネットワーク1とアトラクタ収束検出処理部2とに入力し、出力信号X(2)を得る。
The associative input signal X (0) is input and stored in the associative input
When there is an associative loop processing request, the associative loop control processing unit 3 inputs it to the self-associative additional learning
このようにアトラクタ収束状態の検出の為の一連の連想ループ処理を繰り返し、連想ループ処理回数jに対して、アトラクタ収束検出処理部2に於いて、自己連想用追加学習ニューラルネットワーク1の入力信号X(j)及び出力信号X(j+1)が一致すると、アトラクタに収束したと見なして、連想ループ制御処理部3へアトラクタ収束信号を送出すると共に、アトラクタ収束検出処理を終了する。更に、アトラクタ収束信号を出力端子20に出力する。この時、連想ループ回数がj=0ならば、アトラクタ収束信号(One-Shotアトラクタ収束信号)を出力端子20から送出させる。また、不一致状態が続き、指定された連想ループ回数Jになっても、アトラクタ収束が得られない場合には、発散アトラクタであり、アトラクタ発散信号を出力端子20から送出し、連想ループ処理停止要求を出し、アトラクタ収束検出処理を終了させる。更に、連想ループ制御処理部3では、アトラクタ識別処理部6の出力端子14から、アトラクタ発散識別信号を送出し、連想入力識別処理部21の端子21から非学習入力識別信号を送出させ、一連の連想ループ処理を完了させる。
In this way, a series of associative loop processing for detecting the attractor convergence state is repeated, and the attractor convergence
アトラクタ収束検出処理部2において、アトラクタ収束状態が検出され、アトラクタ収束信号が連想ループ制御処理部3に送入されると、連想ループ制御処理部3の制御の基に、自己連想用追加学習ニューラルネットワーク1の出力信号を出力端子18からアトラクタ出力信号として、入力切替スイッチ7及び入力端子15を介してリングメモリ用ニューラルネットワーク5に送出し、アトラクタ識別処理部6、連想入力識別処理部9及び学習入力データメモリ8に於いて、それぞれ以下の学習入力データ読み出し処理と、アトラクタ識別処理及び連想入力識別処理からなる一連の連想ループ処理を行う。以下これらの一連の処理について説明する。
When the attractor convergence
連想ループ制御処理部3の制御の基に、入力切替スイッチ7を介して、自己連想用追加学習ニューラルネットワーク1の出力端子13のアトラクタ出力信号X(j+1)が入力端子15を介してリングメモリ用ニューラルネットワーク5に入力されると共に、アトラクタ識別処理部6に入力記憶される。入力端子15からのアトラクタ出力信号X(j+1)に対して、リングメモリ用ニューラルネットワーク5から出力信号Rout(1)を得、アトラクタ識別処理部6、連想入力識別処理部9及び学習入力データメモリ8へ夫々入力する。アトラクタ識別処理部6に於いて、アトラクタ出力信号X(j+1)と出力Rout(1)を比較し、不一致ならば、リングメモリ読み出しカウンタn=n+1とし(但し、初期値n=0)、連想ループ制御処理部3の制御の基に入力切替スイッチ7が制御され、Rout(1)が入力端子15を介してリングメモリ用ニューラルネットワーク5にフィードバック入力され、再度読み出し処理を行う。
Under the control of the associative loop control processing unit 3, the attractor output signal X (j + 1) of the
アトラクタ識別処理部6内のリングメモリ読み出しカウンタn(≧0)が予め指定されたカテゴリ別読み出し最大カウンタ数となる範囲内で、アトラクタ出力信号X(j+1)と出力Rout(n)が一致するまで、上記のフィードバックによる一連の処理が繰り返される。尚、カテゴリ別読み出し最大カウンタ数は、表1に示すカテゴリ別の追加学習入力データ数nr、但し(n1,n2,..nr,…nR)内の最大値Nmaxを設定する。表2に示すようにX(j)とRout(n)が一致すると、この時のリングメモリ読み出しカウンタnと同じ値を持つ学習データ数nrが存在し、然も、その対応したプロトタイプP(r)とアトラクタ出力信号X(j+1)が一致すれば、学習アトラクタであることが判明し識別でき、学習アトラクタ識別信号を連想入力識別処理部9と連想ループ制御処理部3と出力端子14へ夫々出力する。
ここで、アトラクタ識別処理部6に於けるアトラクタ識別条件を表2にまとめて示す。
Here, attractor identification conditions in the attractor identification processing unit 6 are shown together in Table 2.
一方、表2に示すように、同じ学習データ数nrを持った分類カテゴリrのプロトタイプP(r)とアトラクタ出力信号X(j+1)を比較し、一致しない場合、即ち、そのリングメモリ読み出しカウンタnに対応した学習データ数を持つプロトタイプが存在しない、或いは、一致しても、n≦Nmaxのリングメモリ読み出しカウンタnに一致する学習データ数nrのカテゴリ番号rが存在しない場合などには、アトラクタ出力信号X(j+1)はスプリアス・アトラクタであることが判明しスプリアス・アトラクタ識別信号が送出される。また、表2のようにカテゴリ別読み出し最大カウント数Nmax以下で、アトラクタ出力信号X(j+1)、出力Rout(n)及びP(r)が全て一致しない場合も、アトラクタ出力信号X(j+1)はスプリアス・アトラクタであることが判明し、スプリアス・アトラクタ識別信号を連想入力識別処理部9と連想ループ制御処理部3と出力端子14へ夫々送出する。このように、リングメモリ読み出し出力信号を用いることにより、アトラクタ出力信号の学習アトラクタかスプリアス・アトラクタかの識別ができる。
On the other hand, as shown in Table 2, the prototype P (r) of the classification category r having the same learning data number nr is compared with the attractor output signal X (j + 1). If there is no prototype having the number of learning data corresponding to the counter n, or there is no category number r of the learning data number nr that matches the ring memory read counter n with n ≦ Nmax even if they match, The attractor output signal X (j + 1) is found to be a spurious attractor, and a spurious attractor identification signal is transmitted. In addition, as shown in Table 2, the attractor output signal X (j) is also obtained when the attractor output signal X (j + 1) and the outputs Rout (n) and P (r) do not all match when the maximum number of readouts by category is Nmax or less. +1) is found to be a spurious attractor, and sends a spurious attractor identification signal to the associative input
アトラクタ識別処理部6に於いて、アトラクタ識別処理が終了すると、連想ループ制御処理部3は、学習アトラクタ識別の場合には、学習入力データメモリ8を読み出し、出力端子16から学習アトラクタに対応したプロトタイプとその追加学習入力データを全て送出する。
連想入力識別処理部9では、連想入力信号X(0)とRout(n)とが比較され、一旦一致したならば、連想入力信号が学習入力データであることから、学習入力データ一致状態を記憶する。ここで、アトラクタ識別処理部6から学習アトラクタ識別信号が入力されると、出力端子21から学習入力データ識別信号が送出される。学習アトラクタ識別信号が入力された時に、リングメモリ読み出し出力信号が全て連想入力信号X(0)と不一致状態で、学習入力データ不一致状態が記憶されているならば、非学習入力データ識別信号が送出される。
When the attractor identification processing unit 6 completes the attractor identification processing, the associative loop control processing unit 3 reads the learning
The associative input
一方、アトラクタ識別処理部6に於いて、スプリアス・アトラクタ識別信号が識別された場合には、出力端子14からスプリアス・アトラクタ識別信号を送出し、連想ループ制御処理部3の制御の基に、学習入力データメモリ8の内部状態はリセットされ、連想入力識別処理部9は、連想入力信号X(0)を非学習入力データと識別し、出力端子21から非学習入力データ識別信号を送出し、全ての処理を完了する。
尚、初期設定として、表1を基に、カテゴリ別読み出し最大カウント数Nmax、カテゴリ別追加学習入力データ数nr及びそのプロトタイプP(r)が予め記憶されている。
On the other hand, when the spurious / attractor identification signal is identified in the attractor identification processing unit 6, the spurious / attractor identification signal is transmitted from the
As an initial setting, based on Table 1, a category-specific maximum read count number Nmax, a category-specific additional learning input data number nr, and a prototype P (r) thereof are stored in advance.
上記の説明の如く、学習アトラクタである分類カテゴリ別のプロトタイプP(r)がアトラクタ出力信号として、出力端子13から送出されると、プロトタイプP(r)とその近傍追加学習入力データとを記憶したカテゴリ別追加学習入力データ数nrに等しいリングメモリ読み出しカウンタnで、X(j+1)=Rout(nr)=P(r)となり、然もプロトタイプ(最後に読み出される)を含め分類カテゴリ別の学習入力データを全て読み出すことができる。
As described above, when a prototype P (r) for each classification category, which is a learning attractor, is transmitted as an attractor output signal from the
スプリアス・アトラクタであるアトラクタ出力信号が出力端子13から送出されると、出力端子14からスプリアス・アトラクタ識別信号が送出される。
尚、アトラクタ識別処理部6に於いて、出力端子14から学習アトラクタ識別信号と共に、一致したプロトタイプP(r)の分類カテゴリ番号rを送出してもよい。これによりカテゴリ分類も行うことができる。
When an attractor output signal, which is a spurious attractor, is transmitted from the
In the attractor identification processing unit 6, the classification category number r of the matched prototype P (r) may be transmitted from the
ここで、アトラクタ識別処理部6に於いて、出力端子13からのアトラクタ出力信号X(j+1)と予め記憶されたプロトタイプP(r)、1≦r≦Rと直接比較し、何れかと一致すると、学習アトラクタと識別し、学習アトラクタ識別信号を連想入力識別処理部9、連想ループ制御処理部3及び出力端子14へ送出してもよい。
Here, in the attractor identification processing unit 6, the attractor output signal X (j + 1) from the
上記の説明の如く、連想入力信号X(0)に対して、連想ループ処理に於いて、表3に示すようにアトラクタ収束状態を検出し、アトラクタに収束しておれば、アトラクタ出力信号X(j+1)に対して、リングメモリ用ニューラルネットワーク5から一連の学習入力データを読み出すと共に、表2に示すように、学習アトラクタかスプリアス・アトラクタかのアトラクタ識別、及び連想入力信号の学習・非学習入力識別ができる。
ここで、本発明の第1の実施形態に於ける図1に示す自己連想記憶処理に関して、連想入力信号X(0)が与えられた時の連想処理フローを図6に示す。尚、ここでは、自己連想用追加学習ニューラルネットワーク処理130及びリングメモリ用ニューラルネットワーク処理190に於いて、前記と同様、追加学習及び学習が夫々既に完了していることを前提として処理フローを説明する。
連想初期設定処理100は、連想ループ回数判定処理160に於ける連想ループ最大回数J、リングメモリ読み出し回数判定処理230におけるカテゴリ別読み出し最大カウント数Nmax、即ち表1に於ける分類カテゴリ内で最大の追加学習データ数であるカテゴリ内最大追加学習データ数Nmax = Max{n1,n2,..,nR}、及びアトラクタ識別処理260への表2に示すアトラクア検出及び識別の条件設定など、初期パラメータ設定を夫々行う。
Here, regarding the self-associative memory processing shown in FIG. 1 in the first embodiment of the present invention, the associative processing flow when the associative input signal X (0) is given is shown in FIG. Here, in the self-associative additional learning
The associative
連想ループ初期設定処理110は、連想ループ回数jの初期設定としてj=0及びリングメモリ読み出しカウンタn=0の初期設定、連想入力―リングメモリ出力一致検出処理210及び学習入力データ記憶処理200の内部状態のリセットを行う。
連想入力信号入力設定処理120は、連想入力信号X(0)を自己連想用追加学習ニューラルネットワーク処理130、アトラクタ収束検出処理140及び連想入力-リングメモリ出力一致検出処理210へ夫々入力設定を行う。
The associative loop
The associative input signal
自己連想用追加学習ニューラルネットワーク処理130は、連想ループ回数j=0で、入力された連想入力信号X(0)に対する2値出力信号X(1)を、或いは、連想ループ回数j>0の場合には、自己連想用追加学習ニューラルネットワーク出力信号入力設定処理180を介して入力設定された連想ループ回数j-1に於ける2値出力信号X(j)を入力し、2値出力信号X(j+1)を夫々送出する。
The additional learning
アトラクタ収束検出処理140は、連想ループ回数j=0の場合には、自己連想用追加学習ニューラルネットワーク処理130の連想入力信号X(0)に対する出力信号X(1)、或いは連想ループ回数jの場合には、2値入力信号X(j)に対する出力信号X(j+1)との一致比較を行ないアトラクタ収束状態の検出を行う。入力信号X(j)と出力信号X(j+1)とが一致しておれば、入出力信号がアトラクタとなったアトラクタ収束状態である。また、この時、連想ループ回数j=0であれば、One-Shotアトラクタ収束状態、連想ループ回数j≧1の場合、汎化アトラクタ収束状態とする。不一致ならば、アトラクタ未収束状態とする。
アトラクタ収束判定処理150に於いて、アトラクタ収束状態が得られると、リングメモリ用ニューラルネットワーク処理190を行う。一方、アトラクタ未収束状態であれば、引き続き連想ループ回数判定処理160を行う。
The attractor
When the attractor convergence state is obtained in the attractor
連想ループ回数判定処理160では、連想ループ回数jが連想ループ最大回数J未満であれば、j←j+1設定処理170にて連想ループ回数jを1増加させる。
自己連想用追加学習ニューラルネットワーク出力信号入力設定処理180では、X(j+1)を自己連想用追加学習ニューラルネットワーク処理130の入力として設定する。その後、前回の連想ループ回数jの場合と同様に、自己連想用追加学習ニューラルネットワーク処理130、アトラクタ収束検出処理140及びアトラクタ収束判定処理150を再度実施する。
In the associative loop
In the self-associative additional learning neural network output signal
一方、連想ループ回数判定処理160にて、連想ループ回数j=Jならば、指定された最大回数Jの連想ループ処理に於いて、連想入力信号X(0)が、アトラクタに収束ぜず、アトラクタ発散状態で不想起となったと判定する。この判定結果に従い、連想入力識別設定処理310に於いて、連想入力信号X(0)が非学習入力データで、発散アトラクタであると識別し、全ての連想ループ処理を完了する。
On the other hand, in the associative loop
アトラクタ収束判定処理150に於いて、アトラクタ収束状態であると判定されると、自己連想用追加学習ニューラルネットワーク130の出力信号であるアトラクタ出力信号X(j+1)に対して、リングメモリ用ニューラルネットワーク処理190に於いてリングメモリ読み出しを行う。
即ち、リングメモリ用ニュウラルネットワーク処理190にて、アトラクタ出力信号X(j+1)を入力し、リングメモリ出力信号Rout(1)を得え、これを学習入力データ記憶処理200にて記憶する。ここで、アトラクタ出力信号X(j+1)がプロトタイプP(r)である場合には、Rout(1)は、学習入力データZ(r,1)となる。
When it is determined in the attractor
That is, in the ring memory
更に、連想入力―リングメモリ出力一致検出処理210にて、連想入力信号X(0)と読み出されたリングメモリ出力信号Rout(1)との一致比較を行う。一旦一致すれば、学習入力データ一致状態を設定する。不一致の場合には、学習入力データ不一致状態を設定する。
更に、アトラクタ出力ー学習入力データ一致状態判定処理220にて、X(j+1)≠Rout(n)の学習入力データ不一致状態の場合には、読み出し回数判定処理230にて、リングメモリ読み出しカウンタnがNmax未満であると、リングメモリ読み出しカウンタn←n+1処理240にて、nを1増加して、読み出されたRout(1)を入力しリングメモリ用ニューラルネットワーク処理190を再度行ない、新たなリングメモリ出力信号Rout(2)を得る。
Further, in the associative input-ring memory output
Further, in the attractor output-learning input data coincidence
更に、同様に学習入力データ記憶処理200、連想入力―リングメモリ出力一致検出処理210及びアトラクタ出力ー学習入力データ一致状態判定処理220を行う。
読み出し回数判定処理230にてリングメモリ読み出しカウンタnがNmaxとなると、スプリアス・アトラクタ識別設定処理250にて、アトラクタ出力信号がスプリアス・アトラクタであると識別設定し、スプリアス・アトラクタ状態とし、学習アトラクタ識別判定処理270を行う。
Further, similarly, a learning input
When the ring memory read counter n reaches Nmax in the number-of-reads
一方、アトラクタ出力ー学習入力データ一致状態判定処理220にて、アトラクタ出力信号X(j+1)がリングメモリ出力信号Rout(n)に一致し、学習入力データ一致状態と判定されると、アトラクタ識別処理260にて、表2のようにアトラクタ出力信号X(j+1)のアトラクタ識別を行う。
On the other hand, if the attractor output signal X (j + 1) matches the ring memory output signal Rout (n) in the attractor output-learning input data match
即ち、アトラクタ識別処理260では、n≦Nmaxのリングメモリ読み出しカウンタnに等しい追加学習入力データ数nrを持った分類カテゴリのプロトタイプP(r)とリングメモリ出力Rout(n)及びX(j+1)との一致を調べ、一致であれば、アトラクタ出力信号X(j+1)を学習アトラクタと識別し、学習アトラクタ状態とする。また、上記の条件を満たさない場合には、アトラクタ出力信号X(j+1)はスプリアス・アトラクタと識別し、スプリアス・アトラクタ識別状態とする。(尚、同じ追加学習データ数nrを持ったプロトタイプが複数個存在する場合も表2の条件で対応できる。)
That is, in the
次に、学習アトラクタ識別判定処理270に於いて、アトラクタ出力信号X(j+1)が学習アトラクタ状態と識別された場合には、連想入力識別処理290にて、連想入力―リングメモリ出力一致検出処理210の結果、学習入力データ一致状態が設定されておれば、連想入力信号X(0)は学習入力データと識別される。ここで、更に、アトラクタ出力信号X(j+1)と一致すれば、プロトタイプであり、不一致であれば、追加学習入力データと識別される。学習入力データ不一致状態が設定されておれば、連想入力信号X(0)は非学習入力データと識別される。
Next, when the attractor output signal X (j + 1) is identified as the learning attractor state in the learning attractor
学習入力データ読み出し処理300にて、学習アトラクタであるアトラクタ出力信号X(j+1)に対応した全ての追加学習入力データとプロトタイプが読み出され、一連の連想ループ処理が全て完了する。
In learning input
一方、学習アトラクタ識別判定処理270の結果、アトラクタ出力信号X(j+1)がスプリアス・アトラクタ状態であると識別されると、連想入力非学習入力データ識別設定処理280にて、連想入力信号X(0)が非学習入力データ(未知連想入力データ)であると識別設定され、一連の連想ループ処理が全て完了する。
On the other hand, if the attractor output signal X (j + 1) is identified as being in the spurious attractor state as a result of the learning attractor
尚、新たな連想入力信号X(0)が入力されると、連想ループ初期設定処理110を行ない、上記の一連の連想ループ処理を行う。
When a new associative input signal X (0) is input, an associative loop
次に、本発明の第2の実施形態として、リングメモリを有し、前進追加学習ニューラルネットワークを用いた相互連想記憶装置について説明する。図2は、本実施形態の相互連想記憶装置の1構成例を示す。 Next, as a second embodiment of the present invention, an associative memory device having a ring memory and using a forward additional learning neural network will be described. FIG. 2 shows an example of the configuration of the associative memory device of this embodiment.
図2の相互連想記憶装置は、入力端子11からの前進連想入力信号X(0)と後進ニューラルネットワーク31からの出力信号の何れかを連想ループ制御処理部3からの制御信号により切替選択し、入力端子12を介して前進追加学習ニューラルネットワーク25へ入力すると共に,アトラクタ収束検出処理部23に送出する入力切替スイッチ4と、入力端子12からの入力信号に対して出力信号を得、出力端子13から分類カテゴリ出力信号として送出し、入力端子17を介して後進ニュ-ラルネットワーク31に入力する前進追加学習ニューラルネットワーク25と、入力端子17の入力信号に対する出力信号を得、入力切替スイッチ4及びアトラクタ収束検出処理部23へ夫々送出すると共に、アトラクタ出力信号として出力端子18から送出する後進ニューラルネットワーク31と、連想ループ制御処理部24の制御の基に、前進追加学習ニューラルネットワーク25の入力信号と後進ニューラルネットワーク31の出力信号とを入力し、アトラクタ収束状態を検出し、アトラクタ収束信号、或いはアトラクア発散信号を出力端子20へ夫々送出するアトラクタ収束検出処理部23と、出力端子18を介して得られたアトラクタ出力信号、或いはリングメモリ用ニューラルネットワーク5の出力信号を連想ループ制御処理部24からの制御信号の基に切り替え、入力端子15を介してリングメモリ用ニューラルネットワーク5へ入力する入力切替スイッチ7と、入力端子15を介して入力された入力信号に対する出力信号を、アトラクタ識別処理部6、学習入力データメモリ8、連想入力識別処理部9及びフィードバックの為の入力切替スイッチ7へ夫々送出するリングメモリ用ニューラルネットワーク5と、リングメモリ用ニューラルネットワーク5からの出力信号を学習入力データとして連想ループ制御処理部24の制御の基に夫々記憶し出力端子16から出力する学習入力データメモリ8と、連想ループ制御処理部24の制御の基に出力端子18からのアトラクタ出力信号とリングメモリ用ニューラルネットワーク5の出力信号を夫々入力し、アトラクタ出力信号を識別し、アトラクタ識別信号を連想入力識別処理部9及び出力端子14へ送出するアトラクタ識別処理部6と、連想ループ制御処理部24からの制御信号及びアトラクタ識別処理部6からのアトラクタ識別信号の基に、リングメモリ用ニューラルネットワーク5の出力信号と入力端子11からの連想入力信号X(0)の比較により、連想入力信号の学習・非学習入力データの識別を行ない出力端子21から学習・非学習入力データ識別信号を送出する連想入力識別処理部9と、入力切替スイッチ4及び7、アトラクタ収束検出処理部23、連想入力識別処理部9及びアトラクタ識別処理部6、学習入力データメモリ8を夫々制御する連想ループ制御処理部24とから構成される。
2 selects either the forward associative input signal X (0) from the
尚、第1の実施形態に於ける自己連想記憶装置の1構成例を示す図1と、第2の実施形態に於ける相互連想記憶装置の1構成例を示す図2、及び従来技術に関する図3及び図4に於いて、同一番号を持つ機能は、同じである。従って、それらの詳細な説明は省略する。 In addition, FIG. 1 which shows one structural example of the self-associative memory device in the first embodiment, FIG. 2 which shows one structural example of the mutual associative memory device in the second embodiment, and a diagram related to the prior art. 3 and FIG. 4, the functions having the same numbers are the same. Therefore, detailed description thereof will be omitted.
以下に、アトラクタ収束検出、アトラクタ識別、連想入力データ識別及び学習入力データ読み出し処理からなる一連の連想ループ処理の動作を中心に説明する。これらの連想ループ処理に先だって、前進追加学習ニューラルネットワーク25では、前記の第1の実施形態と同様に、追加学習処理を実行して得られた重み係数を設定しておく。追加学習処理としては、先ず、予め準備されたプロトタイプP(r)で学習アトラクタを示す学習入力データと、その分類カテゴリrに対応する教師信号とからなる初期学習データを学習させ、全正解出力となり収束した初期学習を行わせる。
Hereinafter, the operation of a series of associative loop processes including attractor convergence detection, attractor identification, associative input data identification, and learning input data reading process will be mainly described. Prior to these associative loop processes, the forward additional learning
その後、予め準備された、プロトタイプの近傍テスト入力データとその分類カテゴリに対応した教師信号とを近傍テストデータとしてテストを行ない、誤った出力信号を送出している近傍テスト入力データを学習入力データZ(r,n)として、初期学習に引き続いて初期学習データと共に追加学習させ、これら学習データに対して全正解出力を送出し収束するまで追加学習を行う。その後、再度テストを行ない、プロトタイプの近傍テスト入力データに対して全て正解出力が得られると追加学習を完了する。不正解出力があれば、その近傍テストデータを追加学習入力データとして加え、上記の追加学習を再度行う。 After that, the neighborhood test input data that has been prepared in advance is tested using the neighborhood test input data of the prototype and the teacher signal corresponding to the classification category as neighborhood test data, and the erroneous output signal is transmitted. As (r, n), after the initial learning, additional learning is performed together with the initial learning data, and all correct answer outputs are sent to these learning data and additional learning is performed until convergence. Thereafter, the test is performed again, and the additional learning is completed when all the correct outputs are obtained for the prototype neighborhood test input data. If there is an incorrect answer output, the neighborhood test data is added as additional learning input data, and the additional learning is performed again.
このような一連の追加学習処理をプロトタイプの近傍テストデータに対して行ない、全ての近傍テスト入力データに対して正解出力が得られるまで繰り返す。全てのプロトタイプの近傍テスト入力データに対して正解出力を送出する追加学習が完了すると、その重み係数を設定し、前進追加学習ニューラルネットワーク25として用いる。ここで、追加学習された、プロトタイプとテストに於いて誤った出力を送出したプロトタイプの近傍テスト入力データとからなる学習入力データを同様に表1に示す。
Such a series of additional learning processes is performed on the prototype neighborhood test data, and is repeated until correct output is obtained for all neighborhood test input data. When the additional learning for sending the correct output is completed for the proximity test input data of all prototypes, the weighting coefficient is set and used as the forward additional learning
更に、前進追加学習ニューラルネットワーク25に於ける前記のプロトタイプとその教師信号とからなる初期学習データに対して逆配置の入出力関係を持つ初期学習データに関して、後進ニューラルネットワーク31が全て正解出力を送出し収束するよう学習させ、得られた重み係数を夫々設定しておく。
Further, the reverse
一方、リングメモリ用ニューラルネットワーク5に於いては、上記の追加学習で用いた、プロトタイプP(r)である初期学習入力データと学習入力データZ(r,n)とを用いて、表1に示すリングメモリ用ニューラルネットワーク5の教師信号を準備し、これらの学習データに対して全正解出力となり収束するよう学習を行ない、得られた重み係数をリングメモリ用ニューラルネットワーク5に設定して用いる。上記のリングメモリ用ニューラルネットワーク5の学習は、第1の実施形態に於ける自己連想記憶装置での場合と同様である。 On the other hand, the ring memory neural network 5 uses the initial learning input data and the learning input data Z (r, n), which are the prototype P (r), used in the additional learning described above, as shown in Table 1. A teacher signal of the ring memory neural network 5 shown in the figure is prepared, learning is performed so that these learning data are output as all correct answers and converge, and the obtained weight coefficients are set in the ring memory neural network 5 and used. The learning of the ring memory neural network 5 is the same as in the case of the self-associative memory device in the first embodiment.
ここで、先ず、アトラクタ収束検出処理に関する連想ループ処理について説明する。連想ループ制御処理部24に於いて、連想ループ回数j=0を初期設定し、連想ループ制御信号を、入力切替スイッチ4の設定及びアトラクタ収束検出処理部23及び学習入力データメモリ8の内部状態、アトラクタ識別処理部6及び連想入力識別処理部9の初期設定の為夫々送出する。前進連想入力信号X(0)が入力端子11を介して入力切替スイッチ4に入力され、入力端子12を介して前進追加学習ニューラルネットワーク25に入力されると共に、アトラクタ収束検出処理部23に入力記憶される。また、前進連想入力信号X(0)は連想入力識別処理部9に入力記憶される。
Here, first, an associative loop process related to the attractor convergence detection process will be described. In the associative loop
前進追加学習ニューラルネットワーク25は、入力されたX(0)に対応した分類カテゴリを示す出力信号Y(0)を分類カテゴリ出力信号として送出し、出力端子13を介して後進ニューラルネットワーク31の入力端子17に入力する。後進ニューラルネットワーク31は、入力された分類カテゴリ出力信号Y(0)に対して出力信号X(1)を送出し、アトラクタ収束検出処理部23へ入力する。アトラクタ収束検出処理部23では、連想ループ制御処理部24から連想ループ回数j=0の設定を行ない、入力されたX(0)とX(1)とを比較し、異なるとアトラクタ非収束状態として、連想ループ回数j=1とし、連想ループ制御処理部24に連想ループ処理要求をする。連想ループ制御処理部24では、連想ループ処理要求があると、出力信号X(1)を、入力切替スイッチ4を介して前進追加学習ニューラルネットワーク25とアトラクタ収束検出処理部23とに入力する。
The forward incremental learning
一連の連想ループ処理に於いて、アトラクタ収束検出処理部23にて、前進追加学習ニューラルネットワーク25の入力信号X(j)及び後進ニューラルネットワーク31の出力信号X(j+1)が一致すると、アトラクタに収束したと見なして、連想ループ制御処理部24へアトラクタ収束信号を送出すると共に、アトラクタ収束信号を出力端子20に出力する。この時、j=0ならば、アトラクタ収束信号(One-Shotアトラクタ収束信号)を、j≠0ならば、アトラクタ収束信号(汎化アトラクタ収束信号)を出力端子20から夫々送出させる。また、指定された連想ループ最大回数Jになっても、アトラクタ収束が得られない場合には、アトラクタ発散信号を出力端子20から送出させると共に、連想ループ制御処理部24では、アトラクタ識別処理部6の出力端子14から、アトラクタ発散識別信号を送出し、連想入力識別処理部9の端子21から非学習入力識別信号を送出させ、一連の連想ループ処理を完了させる。
In the series of associative loop processing, when the attractor convergence
次に、アトラクタ収束状態が検出された後の、アトラクタ識別、連想入力データ識別及び学習入力データ読み出し処理に関する一連の連想ループ処理を説明する。ここで、第1の実施形態の自己連想記憶装置に於ける図1及び本実施形態の図2に示すように、入力切替スイッチ7、リングメモリ用ニューラルネトワーク5、学習入力データメモリ8及び連想入力識別処理部9の構成及び接続は基本的に同一で、従って、これらの動作は互いに同じであることから、詳細説明は省略する。基本的に、アトラクタ識別処理部6に於いて、リングメモリ用ニューラルネットワーク5から指定されたカウンタ範囲Nmax(カテゴリ別読み出し最大カウント数Nmax)内で順次読み出された出力信号Rout(n)と出力端子18からのアトラクタ出力信号X(j+1)とが一致した時のリングメモリ読み出しカウンタnと等しい追加学習入力データ数nrが存在し、然もX(j+1)が、プロトタイプP(r)と一致すると、学習アトラクタと識別し、学習アトラクタ識別信号を連想入力識別処理部9へ送出する。X(j+1)=Rout(n)となるリングメモリ読み出しカウンタn(但し、n≦Nmax)と等しいnrが存在しない場合、X(j+1)=Rout(nr)=P(r)が成立しない場合或いはリングメモリ読み出しカウンタn>Nmaxの場合には、スプリアス・アトラクタと識別し、スプリアス・アトラクタ識別信号を送出する。
Next, a series of associative loop processing relating to attractor identification, associative input data identification, and learning input data read processing after the attractor convergence state is detected will be described. Here, as shown in FIG. 1 in the self-associative memory device of the first embodiment and FIG. 2 of the present embodiment, the input changeover switch 7, the ring memory neural network 5, the learning
また、学習アトラクタと識別されると、学習入力データメモリ8から対応した一連の学習入力データが読み出され、更に連想入力識別処理部9では、前進連想入力信号X(0)が読み出されたプロトタイプ、或いは追加学習入力データの何れかと一致すれば学習入力データ、その他の場合には非学習入力データと識別され、学習入力データ識別信号或いは非学習入力データ識別信号が夫々送出される。
上記の説明の如く、前進連想入力信号X(0)に対してアトラクタ収束状態を検出し、プロトタイプに対応したアトラクタ出力信号X(j+1)を基に、アトラクタ識別を行う共に、前進連想入力信号X(0)の学習・非学習入力識別と、対応した一連の学習入力データの読み出しができる。
When the learning attractor is identified, a series of corresponding learning input data is read from the learning
As described above, the attractor convergence state is detected for the forward associative input signal X (0), and the attractor is identified based on the attractor output signal X (j + 1) corresponding to the prototype, and the forward associative input Learning / non-learning input identification of the signal X (0) and reading of a corresponding series of learning input data can be performed.
次に、本発明の第2の実施形態に於ける図2に示す相互連想記憶処理に関して、前進連想入力信号X(0)が与えられた時の連想処理フローを図7に示す。尚、ここでは、前進追加学習ニューラルネットワーク処理430、後進ニューラルネットワーク処理610及びリングメモリ用ニューラルネットワーク処理490は、前記の第1の実施形態と同様に、追加学習及び学習が夫々既に完了していることを前提として処理フローを説明する。
Next, FIG. 7 shows an associative process flow when the forward associative input signal X (0) is given with respect to the mutual associative memory process shown in FIG. 2 in the second embodiment of the present invention. Here, the additional learning and learning are already completed in the forward additional learning
前進連想初期設定処理400は、連想ループ回数判定処理460に於ける連想ループ最大回数J、リングメモリ読み出し回数判定処理530におけるカテゴリ別読み出し最大カウント数Nmax及びアトラクタ識別処理560への表2に示すアトラクア検出及び識別の条件設定など、初期パラメータ設定を行う。
連想ループ初期設定処理410は、連想ループ回数jの初期設定としてj=0、及びリングメモリ読み出しカウンタn=0の初期設定、連想入力―リングメモリ出力一致検出処理510及び学習入力データ記憶処理500の内部状態のリセットを行う。
前進連想入力信号入力設定処理420は、前進連想入力信号X(0)を前進追加学習ニューラルネットワーク処理430、アトラクタ収束検出処理440及び連想入力-リングメモリ出力一致検出処理510へ夫々入力設定を行う。
The forward associative
The associative loop
The forward associative input signal
前進追加学習ニューラルネットワーク処理430は、連想ループ回数j=0で、入力された前進連想入力信号X(0)、或いは、連想ループ回数j>0の場合には、後進ニューラルネットワーク出力信号入力設定処理480を介して入力設定された連想ループ回数j-1での出力信号X(j)を処理し、出力信号Y(0)、Y(j)を夫々送出する。
後進ニューラルネットワーク処理610では、入力されたY(0)、Y(j)に対して出力信号X(1)、X(j+1)を夫々送出する。
The forward additional learning
In the backward
アトラクタ収束検出処理440は、連想ループ回数j=0の場合には、前進追加学習ニューラルネットワーク処理430の入力信号X(0)及び後進ニューラルネットワーク処理610からの出力信号X(1)、或いは連想ループ回数j(j≧1)の場合には、前進追加学習ニューラルネットワーク処理430の2値入力信号X(j)及び後進ニューラルネットワーク処理610からの出力信号X(j+1)との一致比較処理を行ない、一致の場合にはアトラクタ収束状態、不一致の場合にはアトラクタ未収束状態とする。この時、表3に示すように、連想ループ回数j=0の時に一致しておれば、One-Shotアトラクタ収束状態、連想ループ回数j≧1の場合、汎化アトラクタ収束状態とする。
When the associative loop count j = 0, the attractor
アトラクタ収束判定処理450に於いて、アトラクタ収束状態であれば、リングメモリ用ニューラルネットワーク処理490を行う。アトラクタ未収束状態であれば、連想ループ回数判定処理460を行う。
In the attractor
連想ループ回数判定処理460では、連想ループ回数jが連想ループ最大回数J未満であれば、j←j+1設定処理470にて連想ループ回数jを1増加させる。
後進ニューラルネットワーク出力信号入力設定処理480では、X(j+1)を前進追加学習ニューラルネットワーク処理430の入力として設定する。その後、前回の連想ループ回数jの場合と同様に、前進追加学習ニューラルネットワーク処理430、後進ニューラルネットワーク処理610、アトラクタ収束検出処理440及びアトラクタ収束判定処理450を再度実施する。
In the associative loop
In the backward neural network output signal
一方、連想ループ回数判定処理460にて、連想ループ回数j=Jならば、指定された最大回数Jの連想ループ処理に於いて、アトラクタに収束せず、連想入力信号X(0)がアトラクタ発散状態で不想起となったとし、連想入力識別設定処理620に於いて、連想入力信号X(0)が非学習入力データで、発散アトラクタであるとし、全ての連想ループ処理を完了する。
On the other hand, if the associative loop count j = J in the associative loop
アトラクタ収束判定処理450に於いて、アトラクタ収束状態であると判定されると、後進ニューラルネットワーク処理610の出力信号であるアトラクタ出力信号X(j+1)を基に、リングメモリ用ニューラルネトワーク処理490を介したリングメモリ読み出しによるアトラクタ識別、連想入力信号識別及び対応した学習入力データ読み出す処理を引き続き行う。ここで、これらの一連の連想ループ処理は、図7での処理と全て同一であることから、説明は省略する。
When it is determined in the attractor
本発明に於ける第3の実施形態に於けるリングメモリとアトラクタ識別機能を有した、前進追加学習ニューラルネットワークを用いた相互連想記憶装置の1構成例について、図5を用いて説明する。尚、ここでの前進追加学習ニューラルネットワーク25の学習に於いて用いられる教師信号は、密な2値コード(例えば、教師信号としての2値コードの整数変換値が0から、或いはある整数値から連続となる場合など)に分類カテゴリrを夫々割り当てることにより、スプリアス・アトラクタが発生しない場合及び、前進追加学習ニューラルネットワーク25に於いて、Winner takes allのような疎な2値出力形式を持った教師信号が用いられる場合に、学習アトラクタ識別及びスプリアス・アトラクタ識別をアトラクタ検出識別処理26に於いて行う例について説明する。
One configuration example of an associative memory device using a forward additional learning neural network having a ring memory and attractor identification function in the third embodiment of the present invention will be described with reference to FIG. Note that the teacher signal used in the learning of the forward additional learning
尚、ここでは、説明を簡単にする為に、前進追加学習ニューラルネットワーク25はR個の出力層ユニット数を持ち、その2値出力信号Y(j)として、One out of R 或いはWinner takes allと呼ばれる疎な2値符号化形式を仮定する。
Here, for the sake of simplicity of explanation, the forward incremental learning
図5の相互連想記憶装置は、入力端子11からの前進連想入力信号X(0)と後進ニューラルネットワーク31からの出力信号の何れかを連想ループ制御処理部28からの制御信号により切替選択し、入力端子12を介して前進追加学習ニューラルネットワーク25へ入力すると共に,アトラクタ検出識別処理部26に送出する入力切替スイッチ4と、入力端子12からの入力信号に対して出力信号を得、出力端子13から分類カテゴリ出力信号として送出し、入力端子17を介して後進ニュ-ラルネットワーク31に入力すると共に、アトラクタ検出識別処理部26へ送出する前進追加学習ニューラルネットワーク25と、入力端子17の入力信号に対する出力信号を得、入力切替スイッチ4及びアトラクタ検出識別処理部26へ夫々送出すると共に、アトラクタ出力信号として出力端子18から送出する後進ニューラルネットワーク31と、連想ループ制御処理部28の制御の基に、前進追加学習ニューラルネットワーク25の入力信号及び出力信号と後進ニューラルネットワーク31の出力信号とを入力し、アトラクタ収束状態を検出し、収束したアトラクタを識別し、アトラクタ検出識別信号を連想ループ制御処理部28へ、アトラクタ識別信号を出力端子27へ夫々送出するアトラクタ検出識別処理部26と、出力端子18を介して得られたアトラクタ出力信号、或いはリングメモリ用ニューラルネットワーク5の出力信号を連想ループ制御処理部28からの制御信号の基に切り替え、入力端子15を介してリングメモリ用ニューラルネットワーク5へ入力する入力切替スイッチ7と、入力端子15を介して入力された入力信号に対する出力信号を、アトラクタ一致検出処理部29、学習入力データメモリ8、連想入力識別処理部9及びフィードバックの為の入力切替スイッチ7へ夫々送出するリングメモリ用ニューラルネットワーク5と、リングメモリ用ニューラルネットワーク5からの出力信号を学習入力データとして連想ループ制御処理部28の制御の基に夫々記憶し出力端子16から出力する学習入力データメモリ8と、連想ループ制御処理部28の制御の基に出力端子18からのアトラクタ出力信号とリングメモリ用ニューラルネットワーク5の出力信号を夫々入力し、一致状態を検出し、アトラクタ一致判定信号を連想入力識別処理部9へ送出するアトラクタ一致検出処理部29と、連想ループ制御処理部28からの制御信号の基に、出力端子18からのアトラクタ出力信号と入力端子11からの連想入力信号X(0)とにより連想入力信号の学習・非学習入力データの識別を行ない出力端子21から学習・非学習入力データ識別信号を送出する連想入力識別処理部9と、入力切替スイッチ4及び7、アトラクタ検出識別処理部26、連想入力識別処理部9及びアトラクタ一致検出処理部29、学習入力データメモリ8を夫々制御する連想ループ制御処理部28とから構成される。
5 selects either the forward associative input signal X (0) from the
尚、第1の実施形態に於ける自己連想記憶装置の1構成例を示す図1、第2の実施形態に於ける相互連想記憶装置の1構成例を示す図2、本実施形態の相互連想記憶装置の1構成例を示す図5、従来技術の構成例である図3及び図4に於いて、同一番号の機能は、同一である。従って、これらの詳細な説明は省略する。 FIG. 1 shows one configuration example of the self-associative memory device in the first embodiment, FIG. 2 shows one configuration example of the mutual associative memory device in the second embodiment, and the mutual association of this embodiment. In FIG. 5 showing one configuration example of the storage device and in FIG. 3 and FIG. 4 showing the configuration example of the prior art, the functions with the same numbers are the same. Therefore, detailed description thereof will be omitted.
アトラクタ検出識別処理部26では、表3に示すように、アトラクタ収束状態が検出された場合、前進追加学習ニューラルネットワーク25のWinner takes all 2値表現形式を持った出力信号Y(j)のハミング重み、Hamming・Weight{Y(j)}、即ちRビットからなる出力信号Y(j)の1となるビットの数を計算する。
その結果、
Hamming・Weight{Y(j)}≠1 (1)
を満足する場合には、前進追加学習ニューラルネットワーク25の出力信号Y(j)が学習外カテゴリの2値出力信号であると識別される。即ち、分類カテゴリに割り当てられた2値教師信号以外の2値出力信号となっており、後進ニューラルネットワーク31の出力であるアトラクタ出力信号はスプリアス・アトラクタで、スプリアス・アトラクタ識別となる。
As shown in Table 3, the attractor detection /
as a result,
Hamming ・ Weight {Y (j)} ≠ 1 (1)
Is satisfied, the output signal Y (j) of the forward additional learning
一方、
Hamming・Weight{Y(j)}=1 (2)
を満たす場合には、前進追加学習ニューラルネットワーク25の出力信号Y(j)が学習内カテゴリの出力信号と識別され、前進追加学習ニューラルネットワーク25の教師信号の何れかと同じであり、後進ニューラルネットワーク31の出力であるアトラクタ出力信号は、学習アトラクタであり、学習アトラクタ識別となる。
on the other hand,
Hamming / Weight {Y (j)} = 1 (2)
If the condition is satisfied, the output signal Y (j) of the forward additional learning
以下に、これら一連の連想ループ処理の動作を説明する。連想ループ処理に先だって、前進追加学習ニューラルネットワーク25では、相互連想記憶装置の第2の実施形態に於いて説明した如く、プロトタイプを用いた初期学習と、初期学習データ及びテストに於いて出力誤りとなったプロトタイプの近傍テストデータからなる追加学習データとを学習データとして追加学習して得られた重み係数が設定されている。
Below, the operation | movement of these series of associative loop processes is demonstrated. Prior to the associative loop process, in the forward additional learning
また、図2と同様に、前進追加学習ニューラルネットワーク25に於ける前記のプロトタイプとその教師信号からなる初期学習データに対して逆配置の入出力関係を持つ初期学習データに関して、後進ニューラルネットワーク31が全て正解出力を送出し収束するよう学習させ、得られた重み係数を夫々設定しておく。
Similarly to FIG. 2, the backward
前進追加学習ニューラルネットワーク25は、後進ニューラルネットワーク31と同一のデータ構造の2値出力信号を送出し、後進ニューラルネットワーク31は前進連想入力信号と同一のデータ構造の出力信号を送出する。
更に、リングメモリ用ニューラルネットワーク5に於いても、図2と同様に、プロトタイプP(r)である初期学習入力データと学習入力データZ(r,n)とを用いて、表1に示すリングメモリ用ニューラルネットワーク5の学習データを準備し、これらの学習データに対して全正解出力となり収束するよう学習を行ない、得られた重み係数をリングメモリ用ニューラルネットワーク5に設定する。
The forward additional learning
Further, in the ring memory neural network 5, as in FIG. 2, the initial learning input data and the learning input data Z (r, n), which are prototypes P (r), are used as shown in Table 1. Learning data of the memory neural network 5 is prepared, learning is performed so that the learning data becomes an all correct output and converges, and the obtained weight coefficient is set in the ring memory neural network 5.
アトラクタ検出識別処理部26に関する連想ループ処理では、連想ループ制御処理部28に於いて連想ループ回数j=0を初期設定し、連想ループ制御信号の基に、入力切替スイッチ4の設定及びアトラクタ検出識別処理部26及び学習入力データメモリ8の内部状態、連想入力識別処理部9及びアトラクタ一致検出処理部29などの初期設定を夫々行う。入力端子11に前進連想入力信号X(0)が入力されると、入力切替スイッチ4は、入力端子11と入力端子12とを接続し、アトラクタ収束識別処理に関する連想ループ処理が実行される。
入力端子11の前進連想入力信号X(0)が前進追加学習ニューラルネットワーク25に入力され、更にアトラクタ検出識別処理部26及び連想入力識別処理部9へ入力され記憶される。
In the associative loop process related to the attractor detection
The forward associative input signal X (0) at the
連想ループ回数j=0の場合に、前進連想入力信号X(0)に対応して、前進追加学習ニューラルネットワーク25から分類カテゴリ出力信号としての出力信号Y(0)、更に後進ニューラルネットワーク31から出力信号X(1)が夫々得られる。また、連想ループ回数j(但し、j≧1)の場合には、連想ループ制御処理部28からの制御信号の基に、入力切替スイッチ4を介して入力端子12に後進ニューラルネットワーク31の出力信号X(j)が入力され、更に前進追加学習ニューラルネットワーク25から出力信号Y(j)、後進ニューラルネットワーク31から出力信号X(j+1)が夫々得られ、これらの比較の為に、アトラクタ検出識別処理部26に夫々入力され記憶される。
When the associative loop count j = 0, the output signal Y (0) as the classification category output signal from the forward additional learning
更に、アトラクタ検出識別処理部26では、表3の如く、これらの前進追加学習ニューラルネットワーク25及び後進ニューラルネットワーク31の記憶された入出力信号X(j-1)、Y(j-1)、X(j)、Y(j)、X(j+1)を夫々比較し、アトラクタの収束状態の検出と識別を行う。連想ループ回数j(但し、j≧1)に於いて、X(j-1)=X(j)、Y(j-1)=Y(j)、X(j)=X(j+1)の関係を満たすとアトラクタ収束状態になる。j=1で、アトラクタ収束状態が検出されると、Y(j)が式(2)を満足し、学習内カテゴリであれば、One-Shot学習アトラクタ識別信号、式(1)を満足し、学習外カテゴリであれば、One-Shotスプリアス・アトラクタ識別信号、また、j≠1の場合には、夫々汎化学習アトラクタ識別信号、学習外カテゴリであれば、汎化スプリアス・アトラクタ識別信号を出力端子27に夫々送出する。尚、連想ループ回数に無関係に、アトラクタの識別を単純に学習アトラクタ識別信号、スプリアス・アトラクタ識別信号及びアトラクタ発散識別信号としてもよい。
Further, the attractor detection and
また、表3の如く、アトラクタ検出識別処理部26に於いて、アトラクタ未収束状態で、連想ループ回数jが連想ループ最大回数J未満であれば、連想ループ処理要求信号を、アトラクタ収束状態ならば、学習アトラクタ識別信号かスプリアス・アトラクタ識別信号かのアトラクタ識別信号を連想ループ制御処理部28へ送出する。また、アトラクタ未収束状態で、連想ループ回数が最大回数Jであれば、アトラクタ発散状態として、アトラクタ発散識別信号を連想ループ制御処理部28及び出力端子27に送出する。
Further, as shown in Table 3, in the attractor detection and
連想ループ制御処理部28では、アトラクタ未収束信号が入力されると、連想ループ処理を継続し、アトラクタ発散識別信号が入力されるとアトラクタ検出識別の為の連想ループ処理を終了する。
また、アトラクタ検出識別処理部26からアトラクタ識別信号が入力されると、アトラクタ検出識別の為の連想ループ処理を終了し、学習・非学習データ識別とアトラクタ出力信号に対応した学習入力データをリングメモリ用ニューラルネットワーク5から読み出す為のリングメモリ読み出し処理の連想ループ処理を行う。以下これらの一連の処理について説明する。
The associative loop
When an attractor identification signal is input from the attractor detection
連想ループ制御処理部28の制御の基に、アトラクタ検出識別処理部26からアトラクタ識別信号としてのOne-Shot 及び汎化スプリアス・アトラクタ識別信号が入力された場合、或いはアトラクタ発散識別信号の場合には、アトラクタ出力信号は無意味な情報を有していることから、端子27からスプリアス・アトラクタ識別信号、或いはアトラクタ発散識別信号を、また、端子21からは、非学習入力識別信号を送出し、全ての連想ループ処理を完了させる。
一方、One-Shot或いは汎化学習アトラクタなどの学習アトラクタ識別信号が入力されると、出力端子13から分類カテゴリ出力信号を得、更に、出力端子18からのアトラクタ出力信号を基に、リングメモリ用ニューラルネットワーク5からのこれに対応した一連の追加学習入力データとプロトタイプとを読み出し、更に、前進連想入力信号X(0)が未知連想入力データであるか、プロトタイプ或いは追加学習入力データであるかの連想入力識別処理を行う。この為、入力切替スイッチ7を介して、後進ニューラルネットワーク31の出力端子18のアトラクタ出力信号X(j+1)が入力端子15を介してリングメモリ用ニューラルネットワーク5に入力されると共に、学習入力データメモリ8及びアトラクタ一致検出処理部29に入力記憶される。入力端子15からのアトラクタ出力信号X(j+1)に対して、リングメモリ用ニューラルネットワーク5から出力信号Rout(1)を得、アトラクタ一致検出処理部29、連想入力識別処理部9及び学習入力データメモリ8へ夫々入力する。
Under the control of the associative loop
On the other hand, when a learning attractor identification signal such as a one-shot or generalized learning attractor is input, a classification category output signal is obtained from the
アトラクタ一致検出処理部29に於いて、アトラクタ出力信号X(j+1)と出力Rout(1)を比較し、不一致ならば、リングメモリ読み出しカウンタn=n+1と1増加し(但し、初期値n=0)し、連想ループ制御処理部28の制御の基に入力切替スイッチ7を切替え、Rout(1)が入力端子15を介してリングメモリ用ニューラルネットワーク5にフィードバック入力される。
アトラクタ一致検出処理部29内のリングメモリ読み出しカウンタnが予め指定されたカテゴリ別読み出し最大カウント数Nmaxとなる範囲内で、アトラクタ出力信号X(j+1)と出力Rout(n)が一致するまで、上記の一連のフィードバックによる読み出し処理が繰り返される。尚、カテゴリ別読み出し最大カウント数Nnaxは、表1に示すカテゴリ別追加学習入力データ数nr内の最大値Nmaxを設定する。アトラクタ出力信号X(j+1)と出力Rout(n)が一致すると、分類カテゴリに対応した全ての学習入力データを読み出し、学習入力データメモリ8に記憶したこととなる。
The attractor coincidence
Until the attractor output signal X (j + 1) and the output Rout (n) match within the range in which the ring memory read counter n in the attractor coincidence
また、リングメモリ読み出し完了信号を連想入力識別処理部9へ出力する。連想入力識別処理部9では、この間に読み出された追加学習入力データの何れかに連想入力信号X(0)が一致していると、連想入力信号X(0)は追加学習入力データ或いはプロトタイプに一致していると、学習入力データ識別、何れとも一致していなければ、非学習入力データ識別とされ、出力端子21から夫々送出される。また、連想ループ制御処理部28へ全処理完了信号を送出する。連想ループ制御処理部28がこの信号を受け取ると全ての一連の処理が完了し、新たな連想入力信号の受信状態とする。新たな前進連想入力信号X(0)が入力端子11に入力されると、再び連想ループ回数j=0とし、上記の一連の連想ループ処理を実施する。
In addition, a ring memory read completion signal is output to the associative input
本発明の第3の実施形態では、前進追加学習ニューラルネットワーク25の2値出力形式として、Winner Takes All 或いはOne out of Rの出力形式を用いて、学習内外カテゴリ識別処理を行う場合について説明したが、この2値出力形式に限るものではなく、2値出力形式を基に前進追加学習ニューラルネットワーク25の出力信号から学習内外カテゴリ識別が行えるものであればよい。また、例えば、特願2004-236466「相互連想記憶装置とそのソフトウェア」に詳細が記載されているが、2値教師信号である密な2値コード全てを連続した通し番号に整数値変換した、即ち、0から最大分類カテゴリ番号(=R-1)の通し番号から構成された分類カテゴリ番号領域を設け、前進追加学習ニューラルネットワーク25の2値出力信号Y(j)を分類カテゴリ番号に変換し比較処理をする学習内外カテゴリ識別方法や、ある特定の整数値以上の分類カテゴリ番号から連続した分類カテゴリ番号から構成された分類カテゴリ番号領域を設け、これらを2値コードに対応させた教師信号を用いて学習させ、2値出力信号Y(j)を分類カテゴリ番号に変換し比較処理をする学習内外カテゴリ識別方法を用いても良い。このような出力表現形式の2値教師信号を用いた場合には、スプリアス・アトラクタは発生しないことから、アトラクタ検出識別処理部26は、アトラクタ収束状態の検出機能だけでよい。
In the third embodiment of the present invention, a case has been described in which learning internal / external category identification processing is performed using the winner take all or one out of R output format as the binary output format of the forward incremental learning
即ち、上記の分類カテゴリ番号領域を表すために必要となる最小ビット数以上の2値コードの分散型出力形式を持った2値出力信号を用いても良い。特に、2値教師信号数或いは分類カテゴリ数Rが2のべき乗(R=2**Qで、完全パッキング・コード)である場合には、所要最小ビット数を用いることにより、学習外カテゴリを発生することはなく、常に学習アトラクタか汎化学習アトラクタに収束し、One-Shot及び汎化スプリアス・アトラクタを発生しない、非常に優れた特性が実現され、アトラクタ識別が簡単となる。 That is, a binary output signal having a distributed output format of a binary code that is equal to or greater than the minimum number of bits required to represent the above category category number area may be used. In particular, when the number of binary teacher signals or the number of classification categories R is a power of 2 (R = 2 ** Q, a complete packing code), a non-learning category is generated by using the required minimum number of bits. It never converges, it always converges to a learning attractor or generalized learning attractor, does not generate One-Shot and generalized spurious attractors, and realizes a very good characteristic, and makes attractor identification easy.
尚、収束状態のアトラクタを、One-Shot学習アトラクタと汎化学習アトラクタ、One-Shotスプリアス・アトラクタと汎化スプリアス・アトラクタと夫々識別したが、これらを簡単に、学習トラクタとスプリアス・アトラクタとに識別してもよい。
上記の説明の如く、前進連想入力信号X(0)に対して、アトラクタ収束状態を検出し、アトラクタ識別を行う共に、分類カテゴリ出力信号Y(j)を得、プロトタイプに対応したアトラクタ出力信号X(j+1)を基に、前進連想入力信号の学習・非学習入力識別と、対応した一連の学習入力データの読み出しができる。
The attracted attractors were identified as One-Shot learning attractor, generalized learning attractor, One-Shot spurious attractor, and generalized spurious attractor. You may identify.
As described above, the attractor convergence state is detected for the forward associative input signal X (0), the attractor is identified, the classification category output signal Y (j) is obtained, and the attractor output signal X corresponding to the prototype is obtained. Based on (j + 1), learning / non-learning input identification of the forward associative input signal and reading of a series of corresponding learning input data can be performed.
次に、本発明の第3の実施形態に於ける図5に示す相互連想記憶処理に関して、連想入力信号X(0)が与えられた時の連想処理フローを図8に示す。尚、ここでは、前進追加学習ニューラルネットワーク処理730、後進ニューラルネットワーク処理610及びリングメモリ用ニューラルネットワーク処理490に於いて、前記と同様、追加学習及び学習が夫々既に完了していることを前提として処理フローを説明する。
Next, FIG. 8 shows an associative process flow when the associative input signal X (0) is given with respect to the mutual associative memory process shown in FIG. 5 in the third embodiment of the present invention. Here, in the forward additional learning
前進連想初期設定処理700は、連想ループ回数判定処理460に於ける連想ループ最大回数J、及びアトラクタ識別処理740への表3に示すアトラクタ検出及び識別の条件設定など、初期パラメータ設定を行う。
連想ループ初期設定処理710では、連想ループ回数jの初期設定としてj=0、及びリングメモリ読み出しカウンタn=0の初期設定、連想入力―リングメモリ出力一致検出処理510及び学習入力データ記憶処理500の内部状態のリセットを行う。
前進連想入力信号入力設定処理720では、前進連想入力信号X(0)を前進追加学習ニューラルネットワーク処理730、アトラクタ検出識別処理740及び連想入力-リングメモリ出力一致検出処理510へ夫々入力設定を行う。
The forward associative
In the associative loop
In the forward associative input signal
前進追加学習ニューラルネットワーク処理730は、連想ループ回数j=0で、入力された前進連想入力信号X(0)、或いは、連想ループ回数j>0の場合には、後進ニューラルネットワーク出力信号入力設定処理480を介して入力設定された出力信号X(j)を処理し、出力信号Y(0)、Y(j)を夫々送出する。
後進ニューラルネットワーク処理610では、入力されたY(0)、Y(j)に対して出力信号X(1)、X(j+1)を夫々送出する。
The forward additional learning
In the backward
アトラクタ検出識別処理740は、連想ループ回数j=0の場合には、前進追加学習ニューラルネットワーク処理730の入力信号X(0)、出力信号Y(0)及び後進ニューラルネットワーク処理610からの出力信号X(1)、或いは連想ループ回数jの場合には、前進追加学習ニューラルネットワーク処理730の入力信号X(j)、出力信号Y(j)及び後進ニューラルネットワーク処理610からの出力信号X(j+1)を用いた一致比較からアトラクタ収束状態の検出を行う。X(j)とX(j+1)とが一致すれば、アトラクタ収束状態、また、この時、連想ループ回数j=0であれば、One-Shotアトラクタ収束状態、連想ループ回数j≧1の場合、汎化アトラクタ収束状態とする。不一致ならばアトラクタ未収束状態とする。
The attractor
更に、アトラクタ収束判定処理450に於いて、アトラクタ収束状態であれば、夫々リングメモリ用ニューラルネットワーク処理490を行う。アトラクタ未収束状態であれば、連想ループ回数判定処理460を行う。
Furthermore, in the attractor
連想ループ回数判定処理460では、連想ループ回数jが連想ループ最大回数J未満であれば、j←j+1設定処理470にて連想ループ回数jを1増加させる。
後進ニューラルネットワーク出力信号入力設定処理480では、X(j+1)を前進追加学習ニューラルネットワーク処理730の入力として設定する。その後、前回の連想ループ回数jの場合と同様に、前進追加学習ニューラルネットワーク処理730、後進ニューラルネットワーク処理610、アトラクタ検出識別処理740及びアトラクタ収束判定処理450を再度実施する。
In the associative loop
In the backward neural network output signal
一方、連想ループ回数判定処理460にて、連想ループ回数j=Jならば、指定された最大回数Jの連想ループ処理に於いて、アトラクタに収束せず、連想入力信号X(0)がアトラクタ発散状態で不想起となったとし、連想入力識別設定処理620に於いて、連想入力信号X(0)が非学習入力識別信号と、アトラクタ発散識別信号を送出し、全ての連想ループ処理を完了する。
On the other hand, if the associative loop count j = J in the associative loop
アトラクタ判定識別処理740に於いて、アトラクタ収束状態であると判定されると、更に学習アトラクタかスプリアス・アトラクタかの識別を行う。
アトラクタ判定識別処理740では、前進追加学習ニューラルネットワーク処理730の出力信号Y(j)である2値出力コードのハミング重みを計算し、式(1)を満たす場合には、学習外カテゴリの2値出力信号であることからスプリアス・アトラクタと識別され、式(2)を満たす場合には、学習内カテゴリの出力信号であることから学習アトラクアと夫々識別される。
In the attractor determination and
In the attractor determination and
学習アトラクタ判定処理750に於いて、後進ニューラルネットワーク処理610の出力信号であるアトラクタ出力信号X(j+1)が、スプリアス・アトラクタ識別であると判定されたならば、連想入力識別設定処理630に於いて、スプリアス・アトラクタ識別信号、非学習入力識別信号を送出して、全ての一連の連想ループ処理を完了する。
一方、学習アトラクタ識別であると判定されると、リングメモリ用ニューラルネットワーク処理490を介したリングメモリ読み出しによる連想入力信号識別処理、及び対応した学習入力データ読み出す処理を引き続き以下のように行う。
If it is determined in the learning
On the other hand, if it is determined that the learning attractor is identified, the associative input signal identifying process by ring memory reading via the ring memory
リングメモリ用ニューラルネットワーク処理490にて、学習アトラクタであるアトラクタ出力信号X(j+1)を入力し、リングメモリ出力信号Rout(1)を得え、これを学習入力データ記憶処理500にて記憶する。
更に、連想入力識別の為の連想入力―リングメモリ出力一致検出処理510にて、連想入力信号X(0)とリングメモリ出力信号Rout(1)の一致比較を行う。一旦一致すれば、学習入力データであり、追加学習入力データかプロトタイプであることが明らかであることから、学習入力データ一致状態を設定する。
In the ring memory
Further, in the associative input-ring memory output
アトラクタ出力ー学習入力データ一致状態判定処理520にて、アトラクタ出力信号とリングメモリ出力Rout(1)との一致判定を行ない、不一致の場合には、リングメモリ読み出しカウンタn←n+1処理540にて、nを1増加して、リングメモリ用ニューラルネットワーク処理490を再度行ない、新たなリングメモリ出力信号Rout(n)を得る。更に、学習入力データ記憶処理500、連想入力―リングメモリ出力一致検出処理510及びアトラクタ出力ー学習入力データ一致状態判定処理520を行う。
In the attractor output-learning input data match
アトラクタ出力ー学習入力データ一致状態判定処理520にて、アトラクタ出力信号X(j+1)がリングメモリ出力信号Rout(n)に一致すると、学習アトラクタであるアトラクタ出力信号X(j+1)に対応した追加学習入力データ及びプロトタイプP(r)を全て読み出したことから、連想入力識別処理590にて、連想入力―リングメモリ出力一致検出処理510の結果、学習入力データ一致状態が設定されておれば、連想入力信号X(0)は、学習入力データと識別される。更に、アトラクタ出力信号と一致すれば、プロトタイプで、不一致であれば、追加学習入力データと識別される。学習入力データ不一致状態が設定されておれば、連想入力信号X(0)は非学習入力データと識別される。
学習入力データ読み出し処理600にて、学習アトラクタであるアトラクタ出力信号X(j+1)に対応した全ての追加学習入力データとプロトタイプとが読み出され、一連の連想ループ処理が全て完了する。
When the attractor output signal X (j + 1) matches the ring memory output signal Rout (n) in the attractor output-learning input data matching
In learning input
尚、新たな連想入力信号X(0)が入力されると、連想ループ初期設定処理710を行ない、上記の一連の連想ループ処理を行う。
When a new associative input signal X (0) is input, an associative loop
上記の実施形態の連想記憶装置では、記憶量に対応した自己連想用ニューラルネットワークや前進追加学習ニューラルネットワークのプトロタイプである学習アトラクタの数が非常に多い場合、即ち連想記憶の所要記憶量が非常に大きい場合にも、多層ニューラルネットワークの中間層ユニット数を増やすことで、追加学習を確実に正しく収束させることができ連想記憶を実現することが可能である。従って、記憶容量を従来方式の連想記憶装置より飛躍的に連想特性を改善することができる。 In the associative memory device of the above-described embodiment, when the number of learning attractors that are prototypes of the self-associative neural network and the forward additional learning neural network corresponding to the storage amount is very large, that is, the required storage amount of the associative memory is very large. Even if it is large, by increasing the number of intermediate layer units of the multilayer neural network, it is possible to reliably converge additional learning correctly and to realize associative memory. Therefore, the associative characteristics of the storage capacity can be dramatically improved as compared with the conventional associative memory device.
また、従来の自己連想メモリでは、記憶容量の制限から記憶できる学習アトラクタとして、代表的なものに限られ、然も互いに余り相関のない学習アトラクタであることの制限があったが、本実施形態の自己及び相互連想記憶装置では、この代表的な学習アトラクタ以外に、それらに似た大きな相関を持った複雑な入力データも追加学習入力データとして多く記憶でき、然も複雑な前進連想入力信号や後進連想入力信号に対しても学習アトラクタに収束させることができる。 In the conventional self-associative memory, the learning attractor that can be stored due to the limitation of the storage capacity is limited to a representative one, and there is a restriction that the learning attractors are not much correlated with each other. In addition to this typical learning attractor, the self and mutual associative memory devices can store a large amount of complex input data having a large correlation similar to them as additional learning input data. The reverse associative input signal can be converged to the learning attractor.
本発明の実施形態では、3層ニューラルネットワークを用いた場合について説明したが、3層以上の多層ニューラルネットワークでも良い。更に、多層ニューラルネットワークに限ることなく、入出力が同一の形式を持った2値教師信号を利用して学習させたニューラルネットワークでもよい。
また、分類カテゴリに対してWinner Takes allのような疎な2値出力コードを用いる代わりに、密な分散型2値コード、例えば、表し得る全ての2値コードに分類カテゴリを割り当てた出力2値コード(完全パッキング・コード)や、ある範囲内で連続した整数値に変換される2値コードに分類カテゴリを割り当てた出力2値コード(連続割り当てコード)などを用いた、高い汎化能力を持った前進追加学習ニューラルネットワークを適用してもよい。これにより、スプリアス・アトラクタを発生させることなく処理を行うこともできる。
In the embodiment of the present invention, the case where a three-layer neural network is used has been described, but a multilayer neural network having three or more layers may be used. Furthermore, the present invention is not limited to a multilayer neural network, and may be a neural network trained using a binary teacher signal having the same input / output format.
Also, instead of using a sparse binary output code such as Winner Takes all for a classification category, a dense distributed binary code, for example, an output binary in which a classification category is assigned to all binary codes that can be represented. High generalization ability using code (complete packing code) and output binary code (consecutive allocation code) that assigns a classification category to a binary code converted into a continuous integer value within a certain range A forward incremental learning neural network may be applied. As a result, processing can be performed without generating spurious attractors.
以上述べたように、従来の自己連想メモリでは、そのデータ記憶容量が非常に少ない。また、学習アトラクタ数や学習アトラクタの距離分布によっては、連想能力を高くできないなどの問題がある。
また、従来の相互連想メモリ装置は、データ記憶容量は大きくできるが、スプリアス・アトラクタが多く発生するなど、連想特性が余り優れていない。然も後進多層ニューラルネットワークからのアトラクタ出力信号は、所望の学習アトラクタかスプリアス・アトラクタかの識別や連想入力識別もできない。従って、アトラクタ出力信号を用いた応用処理システムでは誤動作が避けられない。
As described above, the conventional self-associative memory has a very small data storage capacity. Further, there is a problem that the associative ability cannot be increased depending on the number of learning attractors and the distance distribution of the learning attractors.
In addition, the conventional associative memory device can increase the data storage capacity, but the associative characteristics are not so excellent, such as a large number of spurious attractors. However, the attractor output signal from the backward multi-layer neural network cannot identify the desired learning attractor or spurious attractor or associative input. Therefore, malfunctions cannot be avoided in the application processing system using the attractor output signal.
これに対して、本発明の連想記憶装置に於いては、記憶する大量の学習アトラクタ数に応じて、中間層ユニット数を増やし、全正解出力となるよう収束させ追加学習を行った、非常に高い汎化能力を持った追加学習ニューラルネットワークを導入することにより、スプリアス・アトラクタの発生の大幅な削減とアトラクタ吸引力の改善が図られ、非常に優れた連想特性を持ち、然も非常に多量の学習アトラクタを記憶できる。また、プロトタイプ及び追加学習入力データを記憶したリングメモリの導入により、それらの読み出しループ処理に於ける、連想入力信号の学習・非学習入力データ識別、学習アトラクタ及びスプリアス・アトラクタ間のアトラクタ識別、及びアトラクタ出力信号に対応した全ての学習入力データの読み出しなどをダイナミックに行うことができる。 On the other hand, in the associative memory device of the present invention, the number of intermediate layer units was increased according to the large number of learning attractors to be stored, and the additional learning was performed by converging to obtain all correct answer outputs. By introducing an additional learning neural network with a high generalization ability, the spurious attractor generation is greatly reduced and the attracting force of the attractor is improved. Can learn learning attractors. Also, by introducing a ring memory storing prototypes and additional learning input data, learning / non-learning input data identification of associative input signals, attractor identification between learning attractors and spurious attractors in the readout loop processing, and It is possible to dynamically read out all learning input data corresponding to the attractor output signal.
このように自己及び相互連想記憶の構造面及び特性面で非常に優れており、種々の応用に合わせた自由な設計が可能で、然も信頼性も優れている。従って、従来の自己或いは相互連想記憶装置では、記憶容量だけでなく、アトラクタ吸引力、多くのスプリアス・アトラクタの発生などに関しても、種々の実用上の制約があったが、これらの問題を解決できる。
また、非常に優れた連想特性と大容量記憶能力以外に、カテゴリ分類能力、アトラクタ識別能力、連想入力識別能力及び収束したアトラクタ出力信号に対応した学習入力データ読み出し機能を有していることから、非常に幅広い応用処理システムにも適用できる。
As described above, the structure and characteristics of the self and the associative memory are very excellent, a free design according to various applications is possible, and the reliability is also excellent. Therefore, the conventional self-associative memory device has various practical restrictions on not only the storage capacity but also the attracting force of the attractor and the generation of many spurious attractors, but these problems can be solved. .
In addition to the excellent associative characteristics and large-capacity storage capability, it also has a category classification capability, attractor identification capability, associative input identification capability, and a learning input data readout function corresponding to converged attractor output signals. It can be applied to a very wide range of application processing systems.
上記の幅広い効果から、本発明のリングメモリを有し、追加学習ニュ−ラルネットワークを用いた自己及び相互連想記憶装置は、セキュリティ管理システムや不正アクセス検出などのセキュリティシステムへの応用、バイオメトリクスに於ける各種高機能なパターン認識や多くの雑音などにより劣化した大容量の画像データなどの認識への応用、高速データ検索などへの応用、更にはネットワーク障害状態の異常状態検出などネットワーク障害検出システムへの応用など、非常に幅広く適用できる特徴を有している。 Due to the above-mentioned wide effects, the self-associative memory device having the ring memory of the present invention and using the additional learning neural network can be applied to security systems such as security management systems and unauthorized access detection, and biometrics. Network failure detection system such as various high-performance pattern recognition and application to recognition of large-capacity image data degraded by a lot of noise, application to high-speed data retrieval, etc. It has characteristics that can be applied to a wide range of applications.
1 自己連想用追加学習ニューラルネットワーク
2 アトラクタ収束検出処理部
3 連想ループ制御処理部
4 入力切替スイッチ
5 リングメモリ用ニューラルネットワーク
6 アトラクタ識別処理部
7 入力切替スイッチ
8 学習入力データ記憶メモリ
9 連想入力識別処理部
10 入力切替スイッチ
11 連想入力信号端子
12 ニューラルネットワーク入力端子
13 ニューラルネットワーク出力端子
14 アトラクタ識別出力端子
15 リングメモリ入力端子
16 学習データ出力端子
17 後進ニューラルネットワーク入力端子
18 後進ニューラルネットワーク出力端子
19 後進連想入力端子
20 アトラクタ収束検出出力端子
21 連想入力識別出力端子
22 アトラクタ検出識別処理部
23 アトラクタ収束検出処理部
24 連想ループ制御処理部
25 前進追加学習ニューラルネットワーク
26 アトラクタ検出識別処理部
27 アトラクタ検出識別出力端子
28 連想ループ制御処理部
29 アトラクタ一致検出処理部
31 後進ニューラルネットワーク
32 前進ニューラルネットワーク
33 自己連想用ニューラルネットワーク
34 アトラクタ収束検出処理部
35 連想ループ制御処理部
100 連想初期設定処理
110 連想ループ初期設定処理
120 連想入力信号入力設定処理
130 自己連想用追加学習ニューラルネットワーク処理
140 アトラクタ収束検出処理
150 アトラクタ収束判定処理
160 連想ループ回数判定処理
170 連想ループ回数j←j+1設定処理
180 自己連想用追加学習ニューラルネットワーク出力信号入力設定処理
190 リングメモリ用ニューラルネットワーク処理
200 学習入力データ記憶処理
210 連想入力―リングメモリ出力一致検出処理
220 アトラクタ出力ー学習入力データ一致状態判定処理
230 リングメモリ読み出し回数判定処理
240 リングメモリ読み出しカウンタnのn←n+1設定処理
250 スプリアス・アトラクタ識別設定処理
260 アトラクタ識別処理
270 学習アトラクタ識別判定処理
280 連想入力非学習入力データ識別設定処理
290 連想入力識別処理
300 学習入力データ読み出し処理
310 連想入力識別設定処理
400 前進連想初期設定処理
410 連想ループ初期設定処理
420 前進連想入力信号入力設定処理
430 前進追加学習ニューラルネットワーク処理
440 アトラクタ収束検出処理
450 アトラクタ収束判定処理
460 連想ループ回数判定処理
470 連想ループ回数j←j+1設定処理
480 後進ニューラルネットワーク出力信号入力設定処理
490 リングメモリ用ニューラルネットワーク処理
500 学習入力データ記憶処理
510 連想入力―リングメモリ出力一致検出処理
520 アトラクタ出力ー学習入力データ一致状態判定処理
530 リングメモリ読み出し回数判定処理
540 リングメモリ読み出しカウンタnのn←n+1設定処理
550 スプリアス・アトラクタ識別設定処理
560 アトラクタ識別処理
570 学習アトラクタ識別判定処理
580 連想入力非学習入力データ識別設定処理
590 連想入力識別処理
600 学習入力データ読み出し処理
610 後進ニューラルネットワーク処理
620 連想入力識別設定処理
630 連想入力識別設定処理
700 前進連想初期設定処理
710 連想ループ初期設定処理
720 前進連想入力信号入力設定処理
730 前進追加学習ニューラルネットワーク処理
740 アトラクタ検出識別処理
750 学習アトラクタ識別判定処理
1 Additional learning neural network for self-
22 Attractor detection and identification processing unit
23 attractor convergence detection processing unit 24 associative loop control processing unit 25 forward additional learning neural network 26 attractor detection identification processing unit 27 attractor detection identification output terminal 28 associative loop control processing unit 29 attractor coincidence detection processing unit 31 backward neural network 32 forward neural network 33 Self-associative neural network 34 Attractor convergence detection processing unit 35 Associative loop control processing unit 100 Associative initial setting processing 110 Associative loop initial setting processing 120 Associative input signal input setting processing 130 Self-associative additional learning neural network processing 140 Attractor convergence detection processing 150 attractor convergence determination processing 160 associative loop number determination processing 170 associative loop number j ← j + 1 setting processing 180 additional learning neural network output for self-association Number input setting processing 190 Ring memory neural network processing 200 Learning input data storage processing 210 Associative input-ring memory output coincidence detection processing 220 Attractor output-learning input data coincidence state determination processing 230 Ring memory read count determination processing 240 Ring memory read counter n n ← n + 1 setting processing 250 spurious attractor identification setting processing 260 attractor identification processing 270 learning attractor identification determination processing 280 associative input non-learning input data identification setting processing 290 associative input identification processing 300 learning input data reading processing 310 associative input Identification setting processing 400 Forward association initial setting processing 410 Associative loop initial setting processing 420 Forward association input signal input setting processing 430 Forward additional learning neural network processing 440 Attractor convergence detection processing 4 0 attractor convergence determination processing 460 associative loop count determination processing 470 associative loop count j ← j + 1 setting processing 480 reverse neural network output signal input setting processing 490 ring memory neural network processing 500 learning input data storage processing 510 associative input-ring memory Output match detection processing 520 Attractor output-learning input data match status determination processing 530 Ring memory read count determination processing 540 Ring memory read counter n n ← n + 1 setting processing 550 Spurious attractor identification setting processing 560 Attractor identification processing 570 Learning attractor Identification determination processing 580 Association input non-learning input data identification setting processing 590 Association input identification processing 600 Learning input data read processing 610 Reverse neural network processing 620 Association input identification setting processing 63 0 associative input identification setting process 700 forward associative initial setting process 710 associative loop initial setting process 720 forward associative input signal input setting process 730 forward additional learning neural network process 740 attractor detection identification process 750 learning attractor identification determination process
Claims (12)
As the associative learned neural network processes 130 and 430 according to claims 6 to 10, initial learning is performed by causing a neural network to learn initial learning data prepared in advance consisting of a prototype corresponding to a classification category and a teacher signal thereof. After that, the prototype neighborhood test input data consisting of the prototype neighborhood test input data and the teacher signal is used to perform the test, and the prototype neighborhood test input data resulting in incorrect answer output is used as additional learning input data together with the prototype. Additional learning is performed, and the prototype neighborhood test data additional learning processing is repeated until all of the prepared prototype neighborhood test input data are output as correct answers, and the associated learned neural network processing 130 in which the obtained weighting factor is set. 430, Associative Memory software characterized by using a 30.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2005102707A JP4687199B2 (en) | 2005-03-31 | 2005-03-31 | Associative memory and its software |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2005102707A JP4687199B2 (en) | 2005-03-31 | 2005-03-31 | Associative memory and its software |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2006285489A true JP2006285489A (en) | 2006-10-19 |
| JP4687199B2 JP4687199B2 (en) | 2011-05-25 |
Family
ID=37407372
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2005102707A Expired - Fee Related JP4687199B2 (en) | 2005-03-31 | 2005-03-31 | Associative memory and its software |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP4687199B2 (en) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP3944110A1 (en) | 2020-07-21 | 2022-01-26 | Fujitsu Limited | Learning program, learning device, and learning method |
| JP2023531412A (en) * | 2020-06-16 | 2023-07-24 | イントゥイセル アー・ベー | Computer or hardware implemented entity identification method, computer program product and entity identification apparatus |
| WO2024218836A1 (en) * | 2023-04-17 | 2024-10-24 | 日本電信電話株式会社 | Associative memory device |
| WO2025013227A1 (en) * | 2023-07-11 | 2025-01-16 | 日本電信電話株式会社 | Associative memory device |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH05165801A (en) * | 1991-12-16 | 1993-07-02 | Toshiba Corp | Learning method of neural network |
| JPH0666852A (en) * | 1992-04-22 | 1994-03-11 | Nec Corp | Spectrum measuring device |
-
2005
- 2005-03-31 JP JP2005102707A patent/JP4687199B2/en not_active Expired - Fee Related
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH05165801A (en) * | 1991-12-16 | 1993-07-02 | Toshiba Corp | Learning method of neural network |
| JPH0666852A (en) * | 1992-04-22 | 1994-03-11 | Nec Corp | Spectrum measuring device |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2023531412A (en) * | 2020-06-16 | 2023-07-24 | イントゥイセル アー・ベー | Computer or hardware implemented entity identification method, computer program product and entity identification apparatus |
| EP3944110A1 (en) | 2020-07-21 | 2022-01-26 | Fujitsu Limited | Learning program, learning device, and learning method |
| WO2024218836A1 (en) * | 2023-04-17 | 2024-10-24 | 日本電信電話株式会社 | Associative memory device |
| WO2025013227A1 (en) * | 2023-07-11 | 2025-01-16 | 日本電信電話株式会社 | Associative memory device |
Also Published As
| Publication number | Publication date |
|---|---|
| JP4687199B2 (en) | 2011-05-25 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US5151969A (en) | Self-repairing trellis networks | |
| Sharkey et al. | The “test and select” approach to ensemble combination | |
| US11822579B2 (en) | Apparatus for functioning as sensor node and data center, sensor network, communication method and program | |
| Phatak et al. | Complete and partial fault tolerance of feedforward neural nets | |
| KR101878579B1 (en) | Hierarchical neural network device, learning method for determination device, and determination method | |
| Kleyko et al. | Modification of holographic graph neuron using sparse distributed representations | |
| JP3328935B2 (en) | Parallel multi-valued neural network | |
| CN109886306B (en) | Power grid fault diagnosis data cleaning method | |
| JP3675246B2 (en) | Neural network means having correct / wrong answer determination function | |
| JP4687199B2 (en) | Associative memory and its software | |
| US5493632A (en) | Neural network employing a location addressable memory and method for operating the same | |
| Petsche et al. | Trellis codes, receptive fields, and fault tolerant, self-repairing neural networks | |
| Huang et al. | Functional error correction for reliable neural networks | |
| JPH08249302A (en) | Method for actualizing trouble-tolerant determinative finite state automaton in recursive neural network and trouble-tolerant determinative finite state automaton of network | |
| JP3277648B2 (en) | Parallel neural network | |
| JP7230324B2 (en) | Neural network learning method, computer program and computer device | |
| Lopez et al. | Design of multilayer discrete time cellular neural networks for image processing tasks based on genetic algorithms | |
| JP3757722B2 (en) | Multi-layer neural network unit optimization method and apparatus | |
| JP4696529B2 (en) | Multi-layer neural network device and its software | |
| JP3855580B2 (en) | Parallel neural network device | |
| CN115130617B (en) | Detection method for continuous increase of self-adaptive satellite data mode | |
| JP3855665B2 (en) | Parallel neural network processing system with output state judgment function | |
| JP3329202B2 (en) | Neural network learning method | |
| Bandyopadhyay et al. | A novel neural hetero-associative memory model for pattern recognition | |
| Sugawara et al. | Fault tolerant multi-layer neural networks with GA training |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070919 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100720 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100916 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101026 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101222 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110118 |
|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110131 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 4687199 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140225 Year of fee payment: 3 |
|
| LAPS | Cancellation because of no payment of annual fees |