[go: up one dir, main page]

JP2006285489A - Associative memory and its software - Google Patents

Associative memory and its software Download PDF

Info

Publication number
JP2006285489A
JP2006285489A JP2005102707A JP2005102707A JP2006285489A JP 2006285489 A JP2006285489 A JP 2006285489A JP 2005102707 A JP2005102707 A JP 2005102707A JP 2005102707 A JP2005102707 A JP 2005102707A JP 2006285489 A JP2006285489 A JP 2006285489A
Authority
JP
Japan
Prior art keywords
attractor
learning
neural network
associative
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005102707A
Other languages
Japanese (ja)
Other versions
JP4687199B2 (en
Inventor
Yotaro Hachitsuka
陽太郎 八塚
Hiroshi En
浩 袁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2005102707A priority Critical patent/JP4687199B2/en
Publication of JP2006285489A publication Critical patent/JP2006285489A/en
Application granted granted Critical
Publication of JP4687199B2 publication Critical patent/JP4687199B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Feedback Control In General (AREA)

Abstract

【課題】従来のニューラルネットワークを用いた連想記憶装置では、記憶量の大容量化と連想特性の高性能化が困難であった。
【解決手段】分類カテゴリに対応したプロトタイプとその教師信号とからなる初期学習データを学習させた初期学習の後、プロトタイプの近傍テスト入力データとその教師信号とからなるプロトタイプの近傍テストデータを用いてテストし、プロトタイプの近傍テストデータが全て正解となるまで、プロトタイプと不正解出力となったプロトタイプの近傍テストデータとの追加学習を繰り返し、得られた重み係数を設定した連想用ニューラルネットワークと、前記追加学習したプロトタイプ及び前記不正解出力を発生させたプロトタイプの近傍テスト入力データとをリング傾斜配置した学習データを学習し得られた重み係数を設定したリングメモリ用ニューラルネットワークと、アトラクタ収束検出手段、アトラクタ識別手段及び連想入力識別手段、とを有する。
【選択図】図1
In an associative memory device using a conventional neural network, it is difficult to increase the storage capacity and to improve the performance of associative characteristics.
After initial learning in which initial learning data made up of a prototype corresponding to a classification category and its teacher signal is learned, the prototype's neighborhood test data made up of the prototype's neighborhood test input data and its teacher signal are used. The associative neural network in which the weighting coefficient obtained by repeating the additional learning of the prototype and the prototype neighborhood test data that became the incorrect answer output until the neighborhood test data of the prototype is correct is tested, A neural network for a ring memory in which a weighting factor obtained by learning learning data obtained by learning a ring inclination arrangement of a prototype that has been additionally learned and the prototype test input data that generated the incorrect answer output, and attractor convergence detection means, Attractor identification means and associative input identification Means, having a capital.
[Selection] Figure 1

Description

本発明は、劣化画像の雑音除去や復元機能も持った画像認識、種々のパターン認識や、不正アクセス防止などのセキュリティシステム、或いは更に高速メモリ検索などに適用可能な多層ニューラルネットワークを用いた相互連想(Hetero-Associative)記憶装置に関するものである。   The present invention relates to image recognition having a noise removal and restoration function for degraded images, various pattern recognitions, security systems such as unauthorized access prevention, or a mutual association using a multilayer neural network applicable to high-speed memory search. (Hetero-Associative) relates to a storage device.

ニューラルネットワークを用いた連想メモリの種類としては、自己連想メモリと相互(ヘテロ)連想メモリとがある。文献、Hopfield,J.J., Proc. Nationl. Acad. Sci. USA, 79,pp.2554-2558, 1982や、Associative Neural Memories Theory and Implementation Edited by Mohamad H. Hassoun OXFORD University Press 1993などに詳細が記載されている。   Types of associative memories using neural networks include self-associative memories and mutual (hetero) associative memories. Details are described in literature, Hopfield, JJ, Proc. Nationl. Acad. Sci. USA, 79, pp. 2554-2558, 1982, Associative Neural Memories Theory and Implementation Edited by Mohamad H. Hassoun OXFORD University Press 1993, etc. Yes.

図3は、従来技術としての一つのニューラルネットワークを用いた自己連想メモリの1構成例である。入力層と出力層だけから構成された2層ニューラルネットワークや3層ニューラルネットワーク(一つの中間層を持つ砂時計ニューラルネットワーク)、或いはホップフィールドネットワークとして知られる相互結合ネットワーク型のニューラルネットワークなどが用いられている。これらは自己連想ニューラルネットワークの出力信号が直接入力にフィードバックされる構成となっている。   FIG. 3 shows an example of a configuration of a self-associative memory using one neural network as a conventional technique. A two-layer neural network or three-layer neural network consisting of only an input layer and an output layer (an hourglass neural network having one intermediate layer) or an interconnected network type neural network known as a hop field network is used. Yes. These are configured such that the output signal of the self-associative neural network is directly fed back to the input.

図3の従来技術による自己連想メモリとして、自己連想用ニューラルネットワーク33の2層ニューラルネットワーク(中間層を持たない)を用いた場合について、これらの動作を簡単に説明する。
先ず、最初に連想ループ制御処理部35からの制御のもとに、入力端子11からの連想入力信号が、入力切替スイッチ4及び入力端子12を介して自己連想用ニューラルネットワーク33に入力されるとともに、アトラクタ収束検出処理部34に入力記憶される。自己連想用ニューラルネットワーク33としての学習済み2層ニューラルネットワークの出力信号が出力端子13に得られると、これを、連想ループ制御処理部35の制御の基に、入力切替スイッチ4を介して該自己連想用ニューラルネットワーク33の入力端子12にフィードバックする。この為、入力層ユニット数と出力層ユニット数は同一の構成となっている。 従って、学習入力データ(学習アトラクタ)と教師信号が同一で、これらを事前に学習させている。ここで、2層ニューラルネットワークを用いた学習では、多くの場合、重み係数は計算によって求められ設定される。
As a self-associative memory according to the prior art of FIG. 3, these operations will be briefly described in the case where a two-layer neural network (without an intermediate layer) of the self-associative neural network 33 is used.
First, under the control of the associative loop control processing unit 35, an associative input signal from the input terminal 11 is input to the self-associative neural network 33 via the input changeover switch 4 and the input terminal 12. The attractor convergence detection processing unit 34 is input and stored. When the output signal of the learned two-layer neural network as the self-associative neural network 33 is obtained at the output terminal 13, the self-associative neural network 33 receives the output signal via the input changeover switch 4 under the control of the associative loop control processing unit 35. Feedback is provided to the input terminal 12 of the associative neural network 33. For this reason, the number of input layer units is the same as the number of output layer units. Therefore, the learning input data (learning attractor) and the teacher signal are the same and are learned in advance. Here, in learning using a two-layer neural network, in many cases, the weight coefficient is obtained and set by calculation.

連想ループ制御処理部35により、自己連想用ニューラルネットワーク33からの出力信号を入力切替スイッチ4と入力端子12を介して自己連想用ニューラルネットワーク33へフィードバックし、再度、自己連想用ニューラルネットワーク33から出力信号を得る。この一連のフィードバック処理を連想ループ処理と呼び、そのフィードバック回数を連想ループ回数jとする。
ここで、連想ループ回数jに於ける入力端子12の自己連想用ニューラルネットワーク33の入力層への入力信号をX(j)とし、自己連想用ニューラルネットワーク33の出力信号をX(j+1)とし、連想ループ回数j+1の連想ループ処理に於いて、X(j+1)が入力端子12へ再度フィードバックされる。
The associative loop control processing unit 35 feeds back the output signal from the self-associative neural network 33 to the self-associative neural network 33 through the input changeover switch 4 and the input terminal 12, and outputs it again from the self-associative neural network 33. Get a signal. This series of feedback processing is called associative loop processing, and the number of feedbacks is defined as the number of associative loops j.
Here, the input signal to the input layer of the self-associative neural network 33 at the input terminal 12 at the associative loop count j is X (j), and the output signal of the self-associative neural network 33 is X (j + 1). X (j + 1) is fed back to the input terminal 12 again in the associative loop process of the associative loop count j + 1.

この連想ループ処理を繰り返し行った際に、前回の連想ループ処理との出力信号が同一となり、変化しなくなった状態、即ち、X(j)=X(j+1)の状態をアトラクタ収束状態と呼び、また、その時の出力信号をアトラクタと呼び、アトラクタ出力信号として出力端子13から得る。
収束し得られたアトラクタは、連想入力信号に最も近い特徴を持った学習入力データである学習アトラクタとなる場合と、スプリアス・アトラクタ(偽りのアトラクタ)となる場合とがある。スプリアス・アトラクタは、学習入力データではなく、殆どの場合は、多くの雑音を含んだデータから構成されており明確な特徴を持っていない。
When this associative loop process is repeated, the output signal from the previous associative loop process is the same and no longer changes, that is, the state of X (j) = X (j + 1) is the attractor convergence state. The output signal at that time is called an attractor, and is obtained from the output terminal 13 as an attractor output signal.
The attractor that can be converged may be a learning attractor that is learning input data having a feature closest to the associative input signal, or may be a spurious attractor (a false attractor). Spurious attractors are not learning input data, and in most cases are composed of data containing a lot of noise and do not have clear features.

このように、入力端子11の連想入力信号X(0)を入力した後、アトラクタ収束状態になるまでの一連の動作を以下に説明する。先ず、連想ループ制御処理部35からの連想ループ制御によって入力切替スイッチ4の初期設定(j=0時)を行ない、入力切替スイッチ4を介して入力端子11と入力端子12を接続する。また、アトラクタ収束検出処理部34の内部状態をリセットし、入力端子11の連想入力信号X(0)を入力記憶する。更に、連想入力信号X(0)が、入力切替スイッチ4を介して学習済み自己連想用ニューラルネットワーク33に入力信号として入力される。自己連想用ニューラルネットワーク33から出力信号X(1)が得られ、アトラクタ収束検出処理部34に該出力信号X(1)がアトラクアに収束したかどうかを検出する為に入力記憶される。   A series of operations from when the associative input signal X (0) at the input terminal 11 is input to when the attractor converges will be described below. First, the input switch 4 is initially set (when j = 0) by the associative loop control from the associative loop control processing unit 35, and the input terminal 11 and the input terminal 12 are connected via the input switch 4. Further, the internal state of the attractor convergence detection processing unit 34 is reset, and the associative input signal X (0) of the input terminal 11 is input and stored. Furthermore, the associative input signal X (0) is input as an input signal to the learned self-associative neural network 33 via the input changeover switch 4. An output signal X (1) is obtained from the self-associative neural network 33, and is input and stored in the attractor convergence detection processing unit 34 in order to detect whether or not the output signal X (1) has converged to attractors.

更に、連想ループ制御処理部35は、該出力信号X(1)をフィードバックし自己連想用ニューラルネットワーク33に入力する為に、連想ループ回数j=1とし、入力切替スイッチ4を切り替え、出力信号X(1)を、入力端子12を介して自己連想用ニューラルネットワーク33にフィードバック入力し、新たな出力信号X(2)を得え、アトラクタ収束検出処理部34に入力する。このような連想ループ処理を繰り返す。
ここで、X(0)が学習入力データ、即ち学習アトラクタであると、X(0)とその出力信号X(1)は等しくなり、直ちに平衡状態のアトラクタ収束状態となり、アトラクタ収束検出処理部34にて検出される。
Further, the associative loop control processing unit 35 sets the number of associative loops j = 1, switches the input changeover switch 4 to feed back the output signal X (1) and inputs it to the self-associative neural network 33, and outputs the output signal X (1) is fed back to the self-associative neural network 33 via the input terminal 12 to obtain a new output signal X (2), which is input to the attractor convergence detection processing unit 34. Such an associative loop process is repeated.
Here, if X (0) is learning input data, that is, a learning attractor, X (0) and its output signal X (1) are equal to each other, and the attractor convergence detection state is immediately obtained. Is detected.

即ち、アトラクタ収束検出処理部34では、X(j)とX(j+1)との一致検出を行う。但し、j≧0である。一致すると、アトラクタに収束したとして、アトラクタ収束信号を出力端子20に送出すると共に、連想ループ制御処理部35に連想ループ処理を停止するよう連想ループ処理完了信号を送出する。この時の自己連想用ニューラルネットワーク33の出力信号がアトラクタ出力信号として出力端子13に送出される。このアトラクタに収束した状態を想起状態と呼ぶ。   That is, the attractor convergence detection processing unit 34 detects coincidence between X (j) and X (j + 1). However, j ≧ 0. If they match, it is assumed that the attractor has converged, and an attractor convergence signal is sent to the output terminal 20 and an associative loop process completion signal is sent to the associative loop control processing unit 35 so as to stop the associative loop process. The output signal of the self-associative neural network 33 at this time is sent to the output terminal 13 as an attractor output signal. The state converged on this attractor is called a recall state.

一致しない場合には、収束していないと見なし、連想ループ制御処理部35に再度連想ループ処理を要求するために、連想ループ処理要求信号を送出する。
連想ループ制御処理部35では、連想ループ処理要求信号を受信すると、予め指定された連想ループ最大回数J未満であれば、連想ループ回数j=j+1として、連想ループ処理を再度実行するため、出力信号X(j+1)を、入力切替スイッチ4を介して入力端子12へフィードバックする。一方、連想ループ処理完了信号を受信した場合、或いは連想ループ回数jが連想ループ最大回数Jとなると、連想ループ処理を完了する。
If they do not match, it is considered that they have not converged, and an associative loop processing request signal is sent out to request the associative loop control processing unit 35 again for associative loop processing.
In the associative loop control processing unit 35, when the associative loop processing request signal is received, if the associative loop processing number 35 is less than the pre-designated associative loop maximum number J, the associative loop number j = j + 1 is executed again. The output signal X (j + 1) is fed back to the input terminal 12 via the input changeover switch 4. On the other hand, when the associative loop process completion signal is received or when the associative loop count j reaches the maximum associative loop count J, the associative loop process is completed.

連想ループ回数j=Jの状態で連想ループ処理を完了し、アトラクタ収束検出処理部34はアトラクタ発散信号を出力端子20に送出する。
この状態は、連想ループ回数jが指定された最大回数Jとなっても、アトラクタ収束検出処理部34に於いて、X(J)とX(J+1)との一致状態が得られない状態を意味する。このアトラクタ発散識別状態は、不想起状態と呼ばれる。
The associative loop processing is completed in the state where the number of associative loops j = J, and the attractor convergence detection processing unit 34 sends an attractor divergence signal to the output terminal 20.
In this state, even if the number of associative loops j is the specified maximum number J, the attractor convergence detection processing unit 34 cannot obtain the coincidence state of X (J) and X (J + 1). Means. This attractor divergence identification state is called a recollection state.

連想ループ制御処理部35では、入力端子11に新たな連想入力信号X(0)が入力される度毎に入力切替スイッチ4及びアトラクタ収束検出処理部34とを初期設定し、上記の一連の処理を新たな連想入力信号X(0)に対して繰り返す。   The associative loop control processing unit 35 initializes the input selector switch 4 and the attractor convergence detection processing unit 34 every time a new associative input signal X (0) is input to the input terminal 11, and the series of processing described above. Is repeated for a new associative input signal X (0).

自己連想用ニューラルネットワーク33は、重み係数が予め設定された学習済みニューラルネットワークであるが、その重み係数の学習処理では、入力端子11の学習アトラクタとして与えられた学習入力データとその出力信号とが同一の学習アトラクタとなる関係の基で重み係数を計算により得、設定している。尚、この重み係数の求め方については、前記の文献に詳細が記載されている。   The self-associative neural network 33 is a learned neural network in which weighting factors are set in advance. In the learning processing of the weighting factors, learning input data given as a learning attractor of the input terminal 11 and its output signal are used. The weighting coefficient is obtained by calculation and set based on the relationship that becomes the same learning attractor. The details of how to obtain this weighting factor are described in the above-mentioned document.

入力端子11の連想入力信号が学習アトラクタとは異なり、これに似た連想入力信号の場合、複数回の連想ループ処理を介してアトラクタ収束状態に達し、想起される場合がある。例えば、雑音などを含む未知連想入力信号に対しても、連想ループ処理を繰り返すことにより、所望の学習アトラクタに収束し、想起が成功する場合もある。このような動作はフィルタ作用やコンテント・アドレッサブル・メモリとしての働きをする。   When the associative input signal at the input terminal 11 is different from the learning attractor, an associative input signal similar to the learning attractor may reach the attractor convergence state through a plurality of associative loop processes and be recalled. For example, an unknown associative input signal including noise or the like may converge to a desired learning attractor by repeating the associative loop process, and the recall may be successful. Such an operation acts as a filter action or a content addressable memory.

一方、アトラクタ収束検出処理部34の出力端子20からアトラクタ収束信号が送出されると同時に、出力端子13に学習アトラクアとは異なるアトラクタ出力信号が送出され、スプリアス・アトラクタ(偽りアトラクタ)と呼ばれるアトラクタ収束状態に想起される場合がある。即ち、多くの雑音や歪みを含んだ連想入力信号に対して、アトラクタ収束状態となるが、通常の学習アトラクアタとは全く異なった有意な意味を殆ど持たないスプリアス・アトラクタがアトラクタ出力信号として送出される。このスプリアス・アトラクタに収束したアトラクタ出力信号を用いる応用システムでは、誤動作の原因となる。しかしながら、従来技術では、アトラクタ出力信号に対して、学習アトラクタかスプリアス・アトラクタかのアトラクタ識別を行っていない。   On the other hand, an attractor convergence signal is sent from the output terminal 20 of the attractor convergence detection processing unit 34, and at the same time, an attractor output signal different from the learning attractor is sent to the output terminal 13, and the attractor convergence called a spurious attractor (false attractor) is sent. The state may be recalled. In other words, for an associative input signal that contains a lot of noise and distortion, the attractor converges, but a spurious attractor that has almost no significant meaning that is completely different from a normal learning attractor is sent out as an attractor output signal. The In the application system using the attractor output signal converged on the spurious attractor, it causes a malfunction. However, the prior art does not perform attractor identification as a learning attractor or a spurious attractor for the attractor output signal.

従来の自己連想用ニューラルネットワーク33での正しい想起をできるだけ成功させ、然もスプリアス・アトラクタの発生を抑えるには、学習アトラクタとしての学習入力データは互いに相関を持たない直交関係を持つ必要がある。即ち、比較的似た連想入力信号を、学習入力データとして学習記憶させる重み係数を計算し求めて設定すると、学習アトラクタ間の干渉が発生し、スプリアス・アトラクタに収束する場合が増加するか、或いは想起されない無収束の発散状態になる場合が増える。   In order to make the correct recall in the conventional self-associative neural network 33 as successful as possible and suppress the occurrence of spurious attractors, the learning input data as learning attractors must have an orthogonal relationship that is not correlated with each other. That is, if a relatively similar associative input signal is calculated by calculating and setting a weighting factor for learning and storing as learning input data, interference between learning attractors occurs, and the case of convergence to spurious attractors increases, or There are more cases of non-convergent and non-convergent divergence.

従って、自己連想用ニューラルネットワーク33の最適な重み係数によって記憶されている学習入力データ数、即ち学習アトラクタ数に大幅な制限がある。また、学習入力データ数が増えると、自己連想用ニューラルネットワーク33では、汎化能力が低く、連想ループ処理に於ける単独のフィードバック・ループによってのみアトラクタ収束を行わせることから、アトラクタに中々収束せず、アトラクタ発散状態になりやすく、然も、アトラクタに収束してもスプリアス・アトラクタになり易いなどの欠点がある。   Therefore, the number of learning input data stored by the optimum weighting coefficient of the self-associative neural network 33, that is, the number of learning attractors is greatly limited. Further, when the number of learning input data increases, the neural network for self-association 33 has a low generalization capability, and attractor is converged only by a single feedback loop in the associative loop processing. However, there is a drawback in that the attractor tends to diverge, and even if it converges on the attractor, it tends to become a spurious attractor.

上記のように、自己連想用ニューラルネットワーク33を用いた自己連想メモリの最も大きな欠点は、取り得る重み係数への大きな制約による、記憶容量の少なさである。上記の文献によると、この記憶容量は、理論的に約0.12x入力層ユニット数で与えられる。
更に、互いに似た学習入力データを学習させると、互いの干渉からアトラクタ収束状態が得にくくなるなどの欠点もある。また、誤って想起されるアトラクタ収束状態でのスプリアス・アトラクタを少なくするためには、記憶容量が更に少なくなる。このように、学習入力データ数が理論的限界に近づくとアトラクタ収束が一段と困難となってくる。
As described above, the biggest drawback of the self-associative memory using the self-associative neural network 33 is a small storage capacity due to a large restriction on a possible weight coefficient. According to the above document, this storage capacity is theoretically given by about 0.12 × number of input layer units.
Furthermore, when learning input data similar to each other is learned, there is a drawback that it is difficult to obtain an attractor convergence state from mutual interference. Further, in order to reduce spurious attractors in the attractor converged state that is erroneously recalled, the storage capacity is further reduced. In this way, attractor convergence becomes more difficult as the number of learned input data approaches the theoretical limit.

一方、自己連想用ニューラルネットワーク33として、2層ニューラルネットワークの代わりに、学習に於いて教師信号を用いた重み係数の適応更新により求めた重み係数を設定した3層ニューラルネットワーク(一つの中間層を持つ)を用いた場合には、上記の2層ニューラルネットワークと同様の動作を行ない、2層ニューラルネットワークより汎化能力が比較的高いことから、アトラクタに収束しやすく、また、重み係数による学習アトラクタの記憶容量も比較的大きい。汎化率を最大とする最適な中間層ユニット数は、入力層及び出力層のユニット数より一般的に小さく、砂時計型連想メモリと呼ばれる。中間層ユニット数を増やしても連想特性改善は図れない。   On the other hand, as a self-associative neural network 33, instead of a two-layer neural network, a three-layer neural network in which a weighting coefficient obtained by adaptive updating of a weighting coefficient using a teacher signal in learning is set (one intermediate layer is Is used, the same operation as the above two-layer neural network is performed, and the generalization ability is relatively higher than that of the two-layer neural network, so that it is easy to converge on the attractor. The storage capacity is relatively large. The optimum number of intermediate layer units that maximizes the generalization rate is generally smaller than the number of units in the input layer and output layer, and is called an hourglass associative memory. Even if the number of intermediate layer units is increased, the associative characteristics cannot be improved.

記憶容量は、2層ニューラルネットワークの場合より大きく、記憶する学習アトラクタ数が入力層ユニット数よりも比較的少なければ、高性能な連想特性を実現できる。しかしながら、入力層ユニット数よりも多くなると、汎化能力が急激に劣化することから、連想能力は低下し、認識率や、学習アトラクタへの収束速度の低下、更には、スプリアス・アトラクタへの収束や、アトラクタ発散状態が急激に増加するなどの欠点を持っている。
このような従来方式では、このスプリアス・アトラクタ出力信号は、記憶している全ての学習アトラクタと比較しない限り、学習アトラクタかスプリアス・アトラクタかの区別はできず、多くの処理量を要する。
The storage capacity is larger than in the case of the two-layer neural network, and if the number of learning attractors to be stored is relatively smaller than the number of input layer units, a high-performance associative characteristic can be realized. However, if the number of input layer units increases, the generalization ability deteriorates rapidly, so the associative ability declines, the recognition rate, the convergence speed to the learning attractor, and the convergence to the spurious attractor are further reduced. In addition, there is a drawback that attractor divergence increases rapidly.
In such a conventional system, unless the spurious attractor output signal is compared with all stored learning attractors, it cannot be distinguished whether it is a learning attractor or a spurious attractor, and requires a large amount of processing.

この他の従来技術として、2つの従属接続されたニューラルネットワークを用いた相互(ヘテロ)連想メモリと呼ばれる方式がある。この方式は,図4のように、夫々教師信号を用い重み係数更新によって学習された前進ニューラルネットワーク32及び後進ニューラルネットワーク31から構成される。   As another prior art, there is a method called a mutual (hetero) associative memory using two cascaded neural networks. As shown in FIG. 4, this method includes a forward neural network 32 and a backward neural network 31 that are learned by updating weighting factors using teacher signals.

前進ニューラルネットワーク32の出力信号としては、何れか1つのユニットのみが1となり、他のR-1個のユニットは0となるRユニットの2値出力信号形式、即ち、One out of Rと(但し、Rは出力層出力ユニット数で、分類カテゴリ数に対応)呼ばれる粗い符号化コードを用いて学習させている。これは、ニューラルネットワークの学習入力データに対応した教師信号の分類カテゴリへの対応づけが簡単であることから、殆どの多層ニューラルネットワークの出力信号形式として採り入れられ、学習させている。   As the output signal of the forward neural network 32, only one of the units is 1 and the other R-1 units are 0. The binary output signal format of the R unit, ie, One out of R (however, , R is the number of output layer output units, corresponding to the number of classification categories), and learning is performed using a coarse encoded code called. Since it is easy to associate the teacher signal corresponding to the learning input data of the neural network with the classification category, it is adopted as the output signal format of most multilayer neural networks and is learned.

一方、後進ニューラルネットワーク31では、前進ニューラルネットワーク32の教師信号を学習入力データとして学習させる。また、後進ニューラルネットワーク31の教師信号としては、入力切替スイッチ4を介して、前進ニューラルネットワーク32にフィードバック入力する為に、入力端子11からの前進連想入力信号X(0)と同一ユニット数の出力形式を持たせる必要があり、前進ニューラルネットワーク32の学習入力データ、即ち学習アトラクタとする。   On the other hand, in the backward neural network 31, the teacher signal of the forward neural network 32 is learned as learning input data. Further, as a teacher signal of the backward neural network 31, an output of the same number of units as the forward associative input signal X (0) from the input terminal 11 is provided for feedback input to the forward neural network 32 via the input changeover switch 4. It is necessary to have a form, and it is set as learning input data of the forward neural network 32, that is, a learning attractor.

即ち、前進ニューラルネットワーク32への学習入力データが、後進ニューラルネットワーク31の出力信号として再現されるよう夫々の学習を行う。このようにして重み係数更新により学習された重み係数を、前進ニューラルネットワーク32及び後進ニューラルネットワーク31の重み係数として夫々設定する。   That is, each learning is performed so that learning input data to the forward neural network 32 is reproduced as an output signal of the backward neural network 31. The weighting factors learned by updating the weighting factors in this way are set as the weighting factors for the forward neural network 32 and the backward neural network 31, respectively.

ここで、これらの動作を簡単に説明する。図4の入力切替スイッチ4、連想ループ制御処理部35、アトラクタ収束検出処理部34は、夫々図3のそれらと同一構成である。図3の場合と同様に、連想ループ制御処理部35からの制御信号により入力切替スイッチ4は制御され、入力端子11の前進連想入力信号X(0)が学習済みの前進ニューラルネットワーク32の入力端子12を介して入力されるよう接続を行う。また、前進連想入力信号X(0)をアトラクタ収束検出処理部34に初期設定される。前進ニューラルネットワーク32に於いて、前進連想入力信号X(0)に対応した出力信号Y(0)を出力端子13から送出し、更に入力端子17を介して学習済み後進ニューラルネットワーク31に入力する。対応した出力信号X(2)は、連想ループ制御処理部35の制御の基に、連想ループ処理として、入力切替スイッチ4を介して入力端子12にフィードバックされると共に、アトラクタ収束検出処理部34に入力記憶される。   Here, these operations will be briefly described. The input selector switch 4, the associative loop control processing unit 35, and the attractor convergence detection processing unit 34 in FIG. 4 have the same configurations as those in FIG. As in the case of FIG. 3, the input changeover switch 4 is controlled by the control signal from the associative loop control processing unit 35, and the forward associative input signal X (0) at the input terminal 11 has been learned. The connection is made so as to be input through the terminal 12. In addition, the forward associative input signal X (0) is initially set in the attractor convergence detection processing unit 34. In the forward neural network 32, an output signal Y (0) corresponding to the forward associative input signal X (0) is transmitted from the output terminal 13, and further input to the learned backward neural network 31 via the input terminal 17. The corresponding output signal X (2) is fed back to the input terminal 12 via the input changeover switch 4 as an associative loop process under the control of the associative loop control processing unit 35, and also to the attractor convergence detection processing unit 34. The input is memorized.

アトラクタ収束検出処理部34に於いては、連想ループ回数jの時、記憶されている後進ニューラルネットワーク31の出力信号X(j)と、出力信号X(j+1)とが一致すると、アトラクタに収束したとみなし、アトラクタ収束信号を出力端子20から送出し、出力端子18から後進ニューラルネットワーク31の出力信号がアトラクタ出力信号として送出される。連想ループ回数j=Jに於いても、アトラクタに収束しないアトラクタ発散状態では、アトラクタ発散信号が出力端子20から送出される。   In the attractor convergence detection processing unit 34, when the stored output signal X (j) of the backward neural network 31 coincides with the output signal X (j + 1) when the number of associative loops is j, the attractor is detected. The attractor convergence signal is transmitted from the output terminal 20 and the output signal of the backward neural network 31 is transmitted from the output terminal 18 as the attractor output signal. Even in the associative loop count j = J, an attractor divergence signal is transmitted from the output terminal 20 in an attractor divergence state that does not converge on the attractor.

この従来の3層ニューラルネットワークによる相互連想メモリの構成では、必要なR個の学習アトラクタとしての学習入力データと教師信号とを前進ニューラルネットワーク32に学習させることから、重み係数による記憶容量を大きくすることが出来き、然も汎化能力が2層ニューラルネットワークによる自己連想用ニューラルネットワーク33より高く、前進ニューラルネットワーク32及び後進ニューラルネットワーク31を介した連想ループ処理を行うことから、アトラクタへの収束も速く、認識率もよい。   In the configuration of the mutual associative memory using the conventional three-layer neural network, the learning input data and the teacher signal as necessary R learning attractors are learned by the forward neural network 32, so that the storage capacity by the weight coefficient is increased. However, the generalization ability is higher than that of the self-associative neural network 33 using the two-layer neural network, and the associative loop processing through the forward neural network 32 and the backward neural network 31 is performed, so that convergence to the attractor is also possible. Fast and good recognition rate.

しかしながら、学習アトラクタとしての学習入力データ数Rが非常に多い場合、One out of Rの粗コード出力形式を用いた前進ニューラルネットワーク32では、R個の出力層ユニット数が必要で、然も同一の入力層ユニット数を持った後進ニューラルネットワーク31を準備する必要があり、ニューラルネットワーク規模が非常に大きくなる。従って、粗コード出力型前進ニューラルネットワーク32及び後進ニューラルネットワーク31の学習処理及び実行処理の演算量が膨大となる欠点を有している。   However, if the learning input data number R as a learning attractor is very large, the forward neural network 32 using the one out of R coarse code output format requires the number of R output layer units, which are the same. It is necessary to prepare the backward neural network 31 having the number of input layer units, and the scale of the neural network becomes very large. Therefore, there is a drawback that the amount of calculation of the learning process and the execution process of the coarse code output type forward neural network 32 and the backward neural network 31 is enormous.

また、一般的に学習アトラクタ間の距離が互いに近い場合には、汎化率が比較的高いことから、アトラクタ収束速度も比較的速いが、R個のユニットの粗コードからなるスパース出力信号形式が用いられることから、スプリアス・アトラクタに収束する場合が非常に多くなる。
また、お互いの距離が離れた相関の小さい学習アトラクタを学習させた前進ニューラルネットワークを用いた相互連想メモリの場合には、汎化能力を高くできず、優れた連想特性が得られない欠点を持っている。
Also, in general, when the distance between learning attractors is close to each other, the generalization rate is relatively high, so the attractor convergence speed is also relatively fast, but the sparse output signal format consisting of R units of coarse code is Since it is used, the number of cases of convergence to a spurious attractor is extremely high.
In addition, in the case of an associative memory using a forward neural network in which learning attractors with small correlations that are separated from each other are used, the generalization ability cannot be increased, and excellent associative characteristics cannot be obtained. ing.

上記では、教師信号を用い学習する粗コード出力型前進ニューラルネットワーク32について説明したが、密なコード出力型3層ニューラルネットワークを前進ニューラルネットワーク32として用いてもよい。しかしながら、粗コード出力型3層ニューラルネットワークを用いた前進ニューラルネットワーク32の場合の性能に比べて、スプリアス・アトラクタは発生しにくいものの、汎化特性が若干低く、誤った学習アトラクタに収束しやすく、認識率が低い。更に、性能が劣化するが自己組織化ネットワークを用いる場合もあるが、上記に述べた欠点を併せ持っている。   In the above description, the coarse code output type forward neural network 32 that learns using a teacher signal has been described. However, a dense code output type three-layer neural network may be used as the forward neural network 32. However, compared with the performance of the forward neural network 32 using the coarse code output type three-layer neural network, spurious attractors are less likely to occur, but the generalization characteristics are slightly lower, and it is easy to converge to an erroneous learning attractor. Recognition rate is low. Furthermore, although the performance deteriorates, a self-organizing network may be used, but it has the disadvantages described above.

上記の説明の如く、2層ニューラルネットワークによる自己連想メモリでは、入出力ユニット数が同一で限定された構成であることから、学習入力データである学習アトラクタに収束するためには、重み係数に制約があり、多くの学習入力データを記憶することが出来ない欠点を持っている。例えば、2層ニューラルネットワークに於ける記憶できる理論的最大学習入力データ数は、0.12x入力層ユニット数であり、重み係数の記憶量が非常に少ない欠点を持っている。   As described above, since the self-associative memory using the two-layer neural network has the same number of input / output units, the weighting factor is limited in order to converge to the learning attractor that is the learning input data. There is a disadvantage that a lot of learning input data cannot be stored. For example, the theoretical maximum learning input data number that can be stored in a two-layer neural network is 0.12 × input layer unit number, and has a disadvantage that the storage amount of the weight coefficient is very small.

また、3層ニューラルネットワークを用いた砂時計型自己連想メモリに於いて、記憶容量を増加させた場合、学習アトラクタ数が入力層ユニット数以上になると、汎化能力が急激に劣化し、然も粗い出力信号形式であることから、スプリアス・アトラクタ状態に収束する場合が非常に多く発生し、また、大きく雑音劣化した連想入力信号に対しては、アトラクタ収束状態に到達しないアトラクタ発散状態となる場合が非常に多いなどの欠点も有している。   In addition, in the hourglass self-associative memory using a three-layer neural network, when the storage capacity is increased, if the number of learning attractors exceeds the number of input layer units, the generalization ability deteriorates rapidly and is still rough. Because it is an output signal format, there are very many cases where it converges to the spurious attractor state, and for an associative input signal that is greatly degraded in noise, there may be an attractor divergence state that does not reach the attractor convergence state. It also has drawbacks such as very many.

上記の説明のごとく、従来の自己連想メモリや相互連想メモリは、実用的には多くの欠点を有している。2層及び3層ニューラルネットワークを用いた自己連想メモリの場合、重み係数が持つ記憶容量が小さく、多くの学習アトラクタを記憶できない。また、連想ループ処理に於いて、単独のフィードバック処理であることから、アトラクタに中々収束せず、アトラクタ発散状態になりやすく、然も、アトラクタに収束しても、所望の学習アトラクタではなく、スプリアス・アトラクタになり易いなどの欠点がある。   As described above, conventional self-associative memories and mutual associative memories have many drawbacks in practical use. In the case of a self-associative memory using two-layer and three-layer neural networks, the storage capacity of the weighting coefficient is small and many learning attractors cannot be stored. Also, since the associative loop process is a single feedback process, it does not converge to the attractor and tends to diverge the attractor, but even if it converges to the attractor, it is not a desired learning attractor but a spurious.・ There are drawbacks such as being easy to become an attractor.

一方、従来の3層ニューラルネットワークによる相互連想メモリでは、記憶容量を大幅に増加させることができるが、粗コード出力型3層ニューラルネットワークによる前進ニューラルネットワーク32を用いた場合、多くの学習アトラクタを記憶させる為には、前進ニューラルネットワーク32の出力層ユニット数を非常に大きくしなければならず、前進及び後進ニューラルネットワーク32,31の規模が非常に大きくなり、当然のことながら演算量が膨大となるとともに、正しい学習も困難となる欠点を持っている。また、同様の構成理由からスプリアス・アトラクタに非常に収束し易い欠点も有している。   On the other hand, in the conventional associative memory using the three-layer neural network, the storage capacity can be greatly increased. However, when the forward neural network 32 using the coarse code output type three-layer neural network is used, many learning attractors are stored. In order to achieve this, the number of output layer units of the forward neural network 32 must be made very large, the scale of the forward and backward neural networks 32 and 31 becomes very large, and naturally the amount of computation becomes enormous. At the same time, it has the disadvantage that correct learning becomes difficult. Also, for the same reason, it has a drawback that it is very easy to converge on the spurious attractor.

また、密なコード出力型3層ニューラルネットワークによる前進ニューラルネットワークを用いた相互連想メモリでは、粗コード形式3層ニューラルネットワークの場合よりも汎化能力が若干劣ることから、スプリアス・アトラクタは発生しにくいものの、認識率が若干劣る欠点を持っている。
更に、互いに距離が離れた相関の小さい学習アトラクタを多く学習した前進ニューラルネットワークでは、汎化能力が低くなることから、これを用いた相互連想メモリは、優れた連想能力を実現できない欠点を持っている。
また、従来の連想メモリでは、アトラクタ識別を行っておらず、アトラクタ出力信号を用いる応用システムでは誤動作の原因となる欠点も持っている。
上記のように、連想メモリとして種々の欠点を持っている。
Moreover, in the associative memory using the forward neural network based on the dense code output type three-layer neural network, the generalization ability is slightly inferior to that in the case of the coarse code type three-layer neural network, so that spurious attractors are hardly generated. However, the recognition rate is slightly inferior.
Furthermore, in a forward neural network that learns many learning attractors that are far from each other and have a small correlation, the generalization ability is low, so the mutual associative memory using this has the disadvantage that it cannot realize excellent associative ability. Yes.
Further, the conventional associative memory does not perform attractor identification, and the application system using the attractor output signal has a defect that causes malfunction.
As described above, the associative memory has various drawbacks.

本発明の目的は、上記の問題を解決し、従来のニューラルネットワークを用いた自己連想メモリや相互連想メモリなどに比べて、非常に大きな記憶容量を持たせることができると共に、スプリアス・アトラクタに落ち込むことも非常に少なく、また、アトラクタ発散状態も非常に少なく、認識率が非常に高い高性能な連想特性を持ち、更に、分類カテゴリ識別、アトラクタ識別と、連想入力信号が学習入力データであるか、非学習入力データかの連想入力識別と、収束したアトラクタ出力信号に対応した学習入力データ読み出しも可能で、種々の応用に適した非常に優れた連想記憶装置を提供することにある。   The object of the present invention is to solve the above-mentioned problems, and can have a very large storage capacity as compared with a self-associative memory and a mutual associative memory using a conventional neural network, and falls into a spurious attractor. In addition, the attractor divergence state is very small, the recognition rate is very high, and there is a high-performance associative characteristic. Moreover, classification category identification, attractor identification, and whether the associative input signal is learning input data. It is an object of the present invention to provide an associative memory device that is capable of identifying associative input as non-learning input data and reading out learning input data corresponding to a converged attractor output signal and is suitable for various applications.

上記の問題点を解決するために、第1の手段として、自己連想用学習済みニューラルネットワーク手段1と、該自己連想用学習済みニューラルネットワーク手段1の学習入力データからなるリング傾斜配置した学習データを学習したリングメモリ用学習済みニューラルネットワーク手段5と、該自己連想用学習済みニューラルネットワーク手段1に入力された連想入力信号に対するアトラクタ収束状態を検出するアトラクタ収束検出手段2と、該リングメモリ用学習済みニューラルネットワーク手段5に記憶されている該学習入力データを順次読み出し、少なくとも該自己連想用学習済みニューラルネットワーク手段1から出力されたアトラクタに収束したアトラクタ出力信号との一致比較により、スプリアス・アトラクタか学習アトラクタかのアトラクタ識別をするアトラクタ識別手段6とを少なくとも有することを特徴とした自己連想記憶装置を構成する。   In order to solve the above-mentioned problem, as a first means, learning data arranged in a ring gradient composed of self-associative learned neural network means 1 and learning input data of the self-associative learned neural network means 1 is used. Learned neural network means 5 for ring memory, attractor convergence detecting means 2 for detecting an attractor convergence state for an associative input signal inputted to self-associative learned neural network means 1, and learned for ring memory The learning input data stored in the neural network means 5 is sequentially read out, and at least the spurious attractor learning is performed by comparison with the attractor output signal converged on the attractor output from the self-associative learned neural network means 1. Attractor Constituting the auto-associative memory device characterized by having at least a attractor identification means 6 for the attractor identification.

第2の手段として、相互連想用前進学習済みニューラルネットワーク手段25と、該前進学習済みニューラルネットワーク手段25からの入力信号に対する出力信号を該前進学習済みニューラルネットワーク手段25にフィードバック入力すると共にアトラクタ収束状態のアトラクタ出力信号を送出する、該前進学習済みニューラルネットワーク手段25の学習データである学習入力データと教師信号とを逆配置した学習データに対して学習した後進学習済みニューラルネットワーク手段31と、該前進学習済みニューラルネットワーク手段25の該学習入力データをリング傾斜配置した学習データを学習したリングメモリ用学習済みニューラルネットワーク手段5と、該前進学習済みニューラルネットワーク手段25に入力された連想入力信号に対するアトラクタ収束状態を検出するアトラクタ収束検出手段2と、該リングメモリ用学習済みニューラルネットワーク手段5に記憶されている該学習入力データを順次読み出し、少なくとも前記後進学習済みニューラルネットワーク手段31から出力されたアトラクタに収束したアトラクタ出力信号と一致比較することにより、該アトラクタ出力信号の学習アトラクタかスプリアス・アトラクタかのアトラクタ識別をするアトラクタ識別手段6とを少なくとも有することを特徴とした相互連想記憶装置を構成する。   As a second means, the interactive learning forward learned neural network means 25 and an output signal corresponding to the input signal from the forward learned neural network means 25 are fed back to the forward learned neural network means 25 and the attractor convergence state is obtained. A backward-learned neural network means 31 that learns learning data obtained by reversing the learning input data and the teacher signal, which are learning data of the forward-learned neural network means 25, and The learned neural network means 5 for ring memory that has learned the learning data in which the learning input data of the learned neural network means 25 is arranged in a ring gradient, and the associative input that is input to the forward learned neural network means 25 Attractor convergence detecting means 2 for detecting the attractor convergence state for the signal and the learning input data stored in the ring memory learned neural network means 5 are sequentially read out and output from at least the backward learned neural network means 31 A mutual associative memory device comprising at least an attractor identifying means 6 for identifying an attractor as a learning attractor or a spurious attractor of the attractor output signal by comparing with an attractor output signal converged on the attractor. Constitute.

第3の手段として、相互連想用前進学習済みニューラルネットワーク手段25と、該前進学習済みニューラルネットワーク手段25からの入力信号に対する出力信号を該前進学習済みニューラルネットワーク手段25にフィードバック入力すると共にアトラクタ収束状態のアトラクタ出力信号を送出する、該前進追習済みニューラルネットワーク手段25の学習データである学習入力データと教師信号とを逆配置した学習データに対して学習した後進学習済みニューラルネットワーク手段31と、該前進学習済みニューラルネットワーク手段25の該学習入力データをリング傾斜配置した学習データを学習したリングメモリ用学習済みニューラルネットワーク手段5と、該前進学習済みニューラルネットワーク手段25に入力された連想入力信号に対するアトラクタ収束状態を検出し、更に該前進学習済みニューラルネットワーク手段25の出力信号を用いて、該後進学習済みニューラルネットワーク手段31から出力されたアトラクタに収束したアトラクタ出力信号の学習アトラクタかスプリアス・アトラクタかのアトラクタ識別をするアトラクタ検出識別手段26と、該後進学習済みニューラルネットワーク手段31から出力されたアトラクタ出力信号を基に、該リングメモリ用学習済みニューラルネットワーク手段5から順次読み出された該学習入力データと該アトラクタ出力信号との一致比較を少なくとも行ない、該リングメモリ用学習済みニューラルネットワーク手段5からの該学習入力データの読み出しを制御するアトラクタ一致検出手段29とを少なくとも有することを特徴とした相互連想記憶装置を構成する。   As a third means, the forward-learned neural network means 25 for associative association and an output signal for the input signal from the forward-learned neural network means 25 are fed back to the forward-learned neural network means 25 and the attractor convergence state A backward-learned neural network means 31 that learns learning data obtained by reversing the learning input data and the teacher signal as learning data of the forward-followed neural network means 25, The learned neural network means 5 for the ring memory that has learned the learning data in which the learning input data of the forward learned neural network means 25 is arranged in a ring gradient, and the associative input that is input to the advanced learned neural network means 25 The attracting state of the attractor for the signal is detected, and the learning signal of the attractor output signal converged to the attractor output from the backward learned neural network means 31 is further detected using the output signal of the forward learned neural network means 25. The attractor detection / identification means 26 for identifying the attractor of the attractor and the attractor output signal output from the backward learned neural network means 31 are sequentially read from the learned neural network means 5 for the ring memory. It has at least an attractor coincidence detecting means 29 for performing at least a coincidence comparison between the learning input data and the attractor output signal and controlling reading of the learning input data from the learned neural network means 5 for the ring memory. Constituting the mutual associative memory apparatus characterized.

第4の手段として、第1、2及び第3の手段の連想記憶装置に於いて、前記リングメモリ用学習済みニューラルネットワーク手段5からの前記学習入力データと前記連想入力信号との一致比較を少なくとも行ない、該連想入力信号の学習・非学習入力データ識別を行う連想入力識別手段9を有することを特徴とした連想記憶装置を構成する。   As a fourth means, in the associative memory device of the first, second and third means, at least a coincidence comparison between the learned input data from the learned neural network means 5 for the ring memory and the associative input signal is performed. And an associative storage device characterized by comprising associative input identifying means 9 for performing learning / non-learning input data identification of the associative input signal.

第5の手段として、第1、2、3、及び第4の手段の連想記4装置に於いて、前記リングメモリ用学習済みニューラルネットワーク手段5から前記学習入力データを順次読み出し、記憶する学習入力データ記憶手段8を有することを特徴とした連想記憶装置を構成する。   As fifth means, in the associative memory 4 device of the first, second, third, and fourth means, learning input for sequentially reading out and storing the learning input data from the learned neural network means 5 for the ring memory An associative memory device having the data memory means 8 is configured.

第6の手段として、自己連想用学習済みニューラルネットワーク処理130と、該自己連想用学習済みニューラルネットワーク処理130の学習入力データからなるリング傾斜配置した学習データを学習したリングメモリ用学習済みニューラルネットワーク処理190と、該自己連想用学習済みニューラルネットワーク処理130に入力された連想入力信号に対するアトラクタ収束状態を検出するアトラクタ収束検出処理140と、該リングメモリ用学習ニューラルネットワーク処理190に記憶されている該学習入力データを順次読み出し、少なくとも該自己連想用学習済みニューラルネットワーク処理130から出力されたアトラクタに収束したアトラクタ出力信号との一致比較により、学習アトラクタかスプリアス・アトラクタかのアトラクタ識別をするアトラクタ識別処理260とを少なくとも有することを特徴とした自己連想記憶ソフトウェアを構成する。   As a sixth means, a learned neural network process for ring memory that has learned learning data arranged in a ring slope composed of learning input data of the self-associative learned neural network process 130 and the learned neural network process 130 for self-associative learning. 190, an attractor convergence detection process 140 for detecting an attractor convergence state with respect to the associative input signal input to the self-associative learned neural network process 130, and the learning stored in the ring memory learning neural network process 190 The input data is sequentially read out, and at least whether it is a learning attractor or a spurious attractor by comparing with the attractor output signal converged to the attractor output from the learned neural network processing 130 for self-association. Constituting the auto-associative memory software is characterized by having at least a attractor identification process 260 to the Rakuta identified.

第7の手段として、相互連想用前進学習済みニューラルネットワーク処理430と、該前進学習済みニューラルネットワーク処理430からの入力信号に対する出力信号を該前進学習済みニューラルネットワーク430にフィードバック入力すると共にアトラクタ収束状態のアトラクタ出力信号を送出する、該前進学習済みニューラルネットワーク処理430の学習データである学習入力データと教師信号とを逆配置した学習データに対して学習した後進学習済みニューラルネットワーク処理610と、該前進学習済みニューラルネットワーク処理430の該学習入力データをリング傾斜配置した学習データを学習したリングメモリ用ニューラルネットワーク処理490と、該前進学習済みニューラルネットワーク処理430に入力された連想入力信号に対するアトラクタ収束状態を検出するアトラクタ収束検出処理440と、該リングメモリ用学習済みニューラルネットワーク処理490に記憶されている該学習入力データを順次読み出し、少なくとも該後進学習済みニューラルネットワニューラルネットワーク処理610から出力されたアトラクタに収束したアトラクタ出力信号と一致比較することにより、該アトラクタ出力信号の学習アトラクタかスプリアス・アトラクタかのアトラクタ識別をするアトラクタ識別処理560とを少なくとも有することを特徴とした相互連想記憶ソフトウェアを構成する。   As a seventh means, the forward-learned neural network process 430 for associative association and an output signal corresponding to the input signal from the forward-learned neural network process 430 are fed back to the forward-learned neural network 430 and the attractor convergence state is set. A backward-learned neural network process 610 that learns learning data obtained by reversing the learning input data and the teacher signal, which are learning data of the forward-learned neural network process 430, and that sends out an attractor output signal; The neural network processing 490 for the ring memory that has learned the learning data in which the learning input data of the already-executed neural network processing 430 is arranged in a ring slope, and the continuous network that is input to the neural network processing 430 that has been forward-learned. Attractor convergence detection processing 440 for detecting an attractor convergence state with respect to an input signal, and the learning input data stored in the learned neural network processing 490 for the ring memory are sequentially read, and at least the backward learned neural network neural network processing 610 At least an attractor identification process 560 for discriminating the attractor output signal from the learning attractor or the spurious attractor by comparing the attractor output signal converged on the attractor output from the attractor. Configure storage software.

第8の手段として、相互連想用前進学習済みニューラルネットワーク処理730と、該前進学習学習ニューラルネットワーク処理730からの入力信号に対する出力信号を該前進学習済みニューラルネットワーク処理730にフィードバック入力すると共にアトラクタ収束状態のアトラクタ出力信号を送出する、該前進学習済みニューラルネットワーク処理730の学習データである学習入力データと教師信号とを逆配置した学習データに対して学習した後進学習済みニューラルネットワーク処理610と、該前進学習済みニューラルネットワーク処理730の該学習入力データをリング傾斜配置した学習データを学習したリングメモリ用学習済みニューラルネットワーク処理490と、該前進学習済みニューラルネットワーク処理730に入力された連想入力信号に対するアトラクタ収束状態を検出し、更に該前進学習済みニューラルネットワーク処理730の出力信号を用いて、該後進学習済みニューラルネットワーク処理610から出力されたアトラクタに収束したアトラクタ出力信号の学習アトラクタかスプリアス・アトラクタかのアトラクタ識別をするアトラクタ識別処理740と、該後進学習済みニューラルネットワーク処理610から送出されたアトラクタ出力信号を基に、該リングメモリ用学習済みニューラルネットワーク処理490から順次読み出された該学習入力データと該アトラクタ出力信号との一致検出を少なくとも行ない、該リングメモリ用学習済みニューラルネットワーク処理490からの該学習入力データの読み出しを制御するアトラクタ出力ー学習入力データ一致状態判定処理520とを少なくとも有することを特徴とした相互連想記憶ソフトウェアを構成する。
第9の手段として、第6、7及び第8の手段の連想記憶ソフトウェアに於いて、前記リングメモリ用学習済みニューラルネットワーク処理730からの前記学習入力データと前記連想入力信号との一致比較を少なくとも行ない、該連想入力信号の学習・非学習入力データ識別を行う連想入力識別処理590、290を有することを特徴とした連想記憶ソフトウェアを構成する。
第10の手段として、第6、7、8、及び第9の手段の連想記憶ソフトウェアに於いて、前記リングメモリ用学習済みニューラルネットワーク処理190、490から前記学習入力データを順次読み出し、記憶する学習入力データ記憶処理200、500とを有することを特徴とした連想記憶ソフトウェアを構成する。
第11の手段として、第1から第5の前記連想用学習済みニューラルネットワーク手段1、25に於いて、分類カテゴリに対応したプロトタイプとその教師信号とからなる予め準備された初期学習データをニューラルネットワークに学習させた初期学習の後、プロトタイプの近傍テスト入力データとその教師信号とからなる予め準備されたプロトタイプの近傍テストデータを用いてテストし、不正解出力となるプロトタイプの近傍テスト入力データを追加学習入力データとしプロトタイプと共に追加学習を行ない、準備されたプロトタイプの近傍テスト入力データに対して全て正解出力となるまでプロトタイプの近傍テストデータ追加学習処理を繰り返し、得られた重み係数を設定した連想用学習済みニューラルネットワーク手段1、25を用いることを特徴とした連想記憶装置を構成する。
第12の手段として、第6から第10の前記連想用学習済みニューラルネットワーク処理130、430として、分類カテゴリに対応したプロトタイプとその教師信号とからなる予め準備された初期学習データをニューラルネットワークに学習させた初期学習の後、プロトタイプの近傍テスト入力データとその教師信号とからなる予め準備されたプロトタイプの近傍テストデータを用いてテストし、不正解出力となるプロトタイプの近傍テスト入力データを追加学習入力データとしプロトタイプと共に追加学習を行ない、準備されたプロトタイプの近傍テスト入力データに対して全て正解出力となるまでプロトタイプの近傍テストデータ追加学習処理を繰り返し、得られた重み係数を設定した連想用学習済みニューラルネットワーク処理130、430,730を用いることを特徴とした連想記憶ソフトウェアを構成する。
本発明の連想記憶装置は、初期学習に於いて、各分類カテゴリに一つ割り当てられた学習入力データとしての代表的なプロトタイプ以外に、追加学習入力データとして、プロトタイプの近傍テストデータも用いて追加学習した、非常に高い汎化能力を持った多層ニューラルネットワークを、自己連想メモリの自己連想用ニューラルネットワーク、及び相互連想メモリの前進ニューラルネットワークとしてそれぞれ導入している。この為、大規模な記憶容量を実現でき、然も、アトラクタ状態への吸引力も強く、アトラクタ発散状態も大幅に改善され、スプリアス・アトラクタへの収束も減少し、認識率が非常に高くなる特徴を有し優れた連想特性を実現できる。更に、分類カテゴリに対応したプロトタイプ以外に追加学習入力データを記憶したリングメモリを導入することにより、アトラクタ識別、収束した学習アトラクタに対応した、追加学習入力データも含めた一連の学習入力データを呼び出すとともに、連想入力信号の学習・非学習入力データ識別も行うことができ、従来の連想記憶装置には無い優れた特徴を有する。
As an eighth means, a forward-learned neural network process 730 for mutual association and an output signal corresponding to an input signal from the forward-learning neural network process 730 are fed back to the forward-learned neural network process 730 and the attractor convergence state A backward-learned neural network process 610 for learning the learning data obtained by reversing the learning input data and the teacher signal, which is the learning data of the forward-learned neural network process 730, In the learned neural network process 730, the learned input data of the ring memory arranged in a ring gradient is used to learn the learned neural network process 490 for ring memory, and the advanced learned neural network process 730. The attractor convergence state with respect to the input associative input signal is detected, and the output signal of the forward learned neural network process 730 is used to output the attractor output signal converged on the attractor output from the backward learned neural network process 610. Based on the attractor identification process 740 for discriminating between the learning attractor and the spurious attractor, and the attractor output signal sent from the backward learned neural network process 610, the ring memory learned neural network process 490 sequentially reads. Attractor output science that performs at least a coincidence detection between the learning input data and the attractor output signal, and controls reading of the learning input data from the learned neural network processing 490 for the ring memory Constituting the mutual associative memory software is characterized by having at least the input data coincides state determination processing 520.
As a ninth means, in the associative memory software of the sixth, seventh and eighth means, at least a coincidence comparison between the learning input data from the learned neural network processing 730 for the ring memory and the associative input signal is performed. Performing associative input identifying processing 590, 290 for performing learning / non-learning input data identification of the associative input signal.
As tenth means, in the associative memory software of the sixth, seventh, eighth, and ninth means, learning for sequentially reading out and storing the learning input data from the learned neural network processing 190, 490 for ring memory The associative memory software is characterized by having the input data storage processes 200 and 500.
As eleventh means, in the first to fifth associative learned neural network means 1 and 25, initial learning data prepared in advance comprising a prototype corresponding to a classification category and a teacher signal thereof is used as a neural network. After the initial learning, the prototype neighborhood test input data consisting of the prototype neighborhood test data and its teacher signal is used to perform the test, and the prototype neighborhood test input data that gives an incorrect answer is added. Additional learning is performed with the prototype as learning input data, and the proximity test data additional learning process of the prototype is repeated for all of the prepared prototype neighborhood test input data until the correct answer is output, and the obtained weighting factor is set. Learned neural network means 1 and 25 It constitutes an associative memory device characterized by that there.
As a twelfth means, as the sixth to tenth associative learned neural network processes 130 and 430, the initial learning data prepared from the prototype corresponding to the classification category and its teacher signal is learned in the neural network. After the initial learning, the prototype neighborhood test input data consisting of the prototype neighborhood test data and its teacher signal is used to test the prototype neighborhood test input data, which is an incorrect answer output. Additional learning is performed with the prototype as the data, and the prototype neighborhood test data additional learning process is repeated until all of the prepared prototype neighborhood test input data are correctly output, and the associated weighting coefficient is set. Neural network processing 13 , Constituting the associative memory software characterized by using a 430,730.
In the initial learning, the associative memory device of the present invention is added by using the prototype neighborhood test data as additional learning input data in addition to the representative prototype as learning input data assigned to each classification category. The learned multi-layer neural network having a very high generalization ability is introduced as a self-associative memory self-associative memory network and a cross-associative memory forward neural network, respectively. For this reason, large-scale storage capacity can be realized, but the attractive force to the attractor state is strong, the attractor divergence state is greatly improved, the convergence to the spurious attractor is reduced, and the recognition rate is very high And can achieve excellent associative characteristics. Furthermore, by introducing a ring memory that stores additional learning input data in addition to the prototype corresponding to the classification category, a series of learning input data including the additional learning input data corresponding to the attractor identification and converged learning attractor is called. At the same time, learning / non-learning input data identification of the associative input signal can be performed, and it has an excellent feature not found in the conventional associative memory device.

本発明の第1の実施形態に於ける、リングメモリを有し、追加学習ニューラルネットワークを用いた自己連想記憶装置の構成例を図1に示す。以下の本発明の自己連想記憶装置に於いて、その基本構成の説明を簡単にする為、2値の入出力信号を用いた3層ニューラルネットワークを例に挙げ、その構成及びその動作について詳細に説明する。尚、本発明は、3層ニューラルネットワークに限るものではなく、4層以上の多層ニューラルネットワークなど教師信号を用いて学習するニューラルネットワークであればよい。   FIG. 1 shows a configuration example of a self-associative memory device having a ring memory and using an additional learning neural network in the first embodiment of the present invention. In the following self-associative memory device of the present invention, in order to simplify the description of the basic configuration, a three-layer neural network using binary input / output signals is taken as an example, and the configuration and operation thereof are described in detail. explain. The present invention is not limited to a three-layer neural network, and any neural network that learns using a teacher signal, such as a multilayer neural network having four or more layers, may be used.

図1の自己連想記憶装置は、入力端子11に入力された連想入力信号と自己連想用追加学習ニューラルネットワーク1からの出力信号の何れかを連想ループ制御処理部3からの制御信号により切替選択し、入力端子12を介して自己連想用追加学習ニューラルネットワーク1とアトラクタ収束検出処理部2とへ入力する入力切り替えスイッチ4と、入力端子12からの入力信号に対して出力信号を得、アトラクタ出力信号として出力端子13から送出するとともに、入力切り替えスイッチ4及びアトラクタ収束検出処理部2へ夫々送出する自己連想用追加学習ニューラルネットワーク1と、連想ループ制御処理部3からの制御の基に自己連想用追加学習ニューラルネットワーク1への入力信号及び出力信号とが夫々入力され、アトラクタ収束信号、或いはアトラクタ発散信号を端子20から送出するアトラクタ収束検出処理部2と、出力端子13を介して得られたアトラクタ出力信号、或いはリングメモリ用ニューラルネットワーク5の出力信号を連想ループ制御処理部3からの制御信号の基に切り替え、入力端子15を介してリングメモリ用ニューラルネットワーク5へ入力する入力切替スイッチ7と、入力端子15を介して入力された入力信号に対する出力信号を、アトラクタ識別処理部6、学習入力データメモリ8、連想入力識別処理部9及びフィードバックの為の入力切替スイッチ7へ夫々送出するリングメモリ用ニューラルネットワーク5と、端子13からのアトラクタ出力信号とリングメモリ用ニューラルネットワーク5の出力信号である学習入力データとを連想ループ制御処理部3の制御の基に記憶し出力端子16から出力する学習入力データメモリ8と、連想ループ制御処理部3の制御の基に出力端子13からのアトラクタ出力信号とリングメモリ用ニューラルネットワーク5の出力を夫々入力し、アトラクタ出力信号を識別し、アトラクタ識別信号を連想入力識別処理部9及び出力端子14へ送出するアトラクタ識別処理部6と、連想ループ制御処理部3からの制御信号及びアトラクタ識別処理部6からのアトラクタ識別信号の基に、リングメモリ用ニューラルネットワーク5の出力信号と入力端子11からの連想入力信号X(0)とにより連想入力信号の学習・非学習入力データの識別を行ない出力端子21から学習・非学習入力データ識別信号を送出する連想入力識別処理部9と、入力切替スイッチ4及び7、アトラクタ収束検出処理部2、連想入力識別処理部9及びアトラクタ識別処理部6、学習入力データメモリ8を夫々制御する連想ループ制御処理部3とから構成される。   The self-associative memory device of FIG. 1 selects either an associative input signal input to the input terminal 11 or an output signal from the self-associative additional learning neural network 1 by a control signal from the associative loop control processing unit 3. , An input changeover switch 4 that is input to the self-associative additional learning neural network 1 and the attractor convergence detection processing unit 2 via the input terminal 12, an output signal is obtained for the input signal from the input terminal 12, and the attractor output signal And the self-association additional learning neural network 1 to be sent to the input changeover switch 4 and the attractor convergence detection processing unit 2 and the self-association addition based on the control from the associative loop control processing unit 3. The input signal and the output signal to the learning neural network 1 are respectively input and the attractor converges. The attractor convergence detection processing unit 2 for transmitting a signal or attractor divergence signal from the terminal 20 and the attractor output signal obtained via the output terminal 13 or the output signal of the ring memory neural network 5 are associated with the associative loop control processing unit 3. An input changeover switch 7 that switches to the ring memory neural network 5 via the input terminal 15 and an output signal corresponding to the input signal that is input via the input terminal 15. 6, learning input data memory 8, associative input identification processing unit 9, and ring memory neural network 5 to be sent to input selector switch 7 for feedback, attractor output signal from terminal 13 and ring memory neural network 5 Associative loop with learning input data as output signal A learning input data memory 8 that is stored under the control of the control processing unit 3 and that is output from the output terminal 16, an attractor output signal from the output terminal 13 and a neural network 5 for ring memory under the control of the associative loop control processing unit 3 Are respectively input, the attractor output signal is identified, the attractor identification signal is sent to the associative input identification processing unit 9 and the output terminal 14, and the control signal and attractor from the associative loop control processing unit 3. Based on the attractor identification signal from the identification processing unit 6, the learning / non-learning input data of the associative input signal is identified based on the output signal of the ring memory neural network 5 and the associative input signal X (0) from the input terminal 11. An associative input identification processing unit 9 for transmitting a learning / non-learning input data identification signal from the output terminal 21; an input selector switch 4; 7, attractor convergence detection processing section 2, associative input identification processing unit 9 and the attractor identification processor 6, and the learning input data memory 8 from the associative loop control processing unit 3 for each control.

以下に、一連の連想ループ処理の動作を説明する。連想ループ処理に先だって、自己連想用追加学習ニューラルネットワーク1では、高性能な汎化能力を持たせるために、以下のプロトタイプの近傍テストデータ追加学習処理を実行して得られた重み係数を設定した場合について説明する。この学習処理としては、先ず、各分類カテゴリに一つ割り当てられた代表的なプロトタイプP(r)で、然も学習アトラクタを示す学習入力データと、その分類カテゴリrに対応する教師信号とからなる初期学習データに対して、全正解出力となるよう3層ニューラルネットワークを収束させる初期学習を行う。尚、当然ではあるが、プロトタイプだけを学習させた初期学習だけの重み係数を設定してもよい。また、ここでは、分類カテゴリ毎に一個のプロトタイプP(r)を用意したが、これが複数個の場合は、一個以外を近傍テスト入力データとして扱えばよい。   Hereinafter, a series of associative loop processing operations will be described. Prior to the associative loop processing, the additional learning neural network 1 for self-association sets the weighting factor obtained by executing the following neighborhood test data additional learning processing of the prototype in order to have high-performance generalization ability. The case will be described. In this learning process, first, a representative prototype P (r) assigned to each classification category is composed of learning input data indicating a learning attractor and a teacher signal corresponding to the classification category r. Initial learning is performed on the initial learning data to converge the three-layer neural network so that all correct answer outputs are obtained. Of course, a weighting coefficient only for initial learning in which only a prototype is learned may be set. Here, one prototype P (r) is prepared for each classification category. However, when there are a plurality of prototypes P (r), it is sufficient to handle data other than one as neighborhood test input data.

その後、引き続き、予め準備された、プロトタイプの近傍テスト入力データとその分類カテゴリに対応した教師信号とからなるプロトタイプの近傍テストデータを用いて、初期学習された3層ニューラルネットワークのテストを行ない、不正解出力を送出している近傍テスト入力データを学習入力データZ(r,n)、(但し、nは分類カテゴリrの学習データ番号で、0≦n≦nr)として、初期学習入力データと共に追加学習させ、これら学習入力データに対して全正解出力を送出し収束するよう追加学習を行う。その後、再度同様のテストを行ない、不正解出力があれば、その近傍テスト入力データを追加学習入力データとして加え、上記の追加学習を再度行う。このような追加学習処理を繰り返し、プロトタイプの近傍テスト入力データに対して全て正解出力が得られると追加学習処理を完了する。   Subsequently, using the prototype neighborhood test data consisting of the prototype neighborhood test input data prepared in advance and the teacher signal corresponding to the classification category, the initially learned three-layer neural network is tested. Neighboring test input data sending correct output is added as learning input data Z (r, n) (where n is the learning data number of classification category r and 0 ≦ n ≦ nr) along with initial learning input data The learning is performed, and additional learning is performed so that all correct output is transmitted and converged with respect to the learning input data. Thereafter, the same test is performed again. If there is an incorrect answer output, the neighboring test input data is added as additional learning input data, and the additional learning is performed again. Such additional learning processing is repeated, and when all the correct answers are obtained for the prototype neighborhood test input data, the additional learning processing is completed.

プロトタイプの近傍テストデータ追加学習処理が完了すると、その重み係数を自己連想用ニューラルネットワークに設定し、自己連想用追加学習ニューラルネットワーク1として用いる。尚、上記の3層ニューラルネットワークの追加学習処理については、特開平10−49509に詳細が明らかにされている。   When the prototype neighborhood test data additional learning process is completed, the weighting coefficient is set in the self-associative neural network and used as the self-associative additional learning neural network 1. The details of the additional learning process of the above three-layer neural network are disclosed in Japanese Patent Laid-Open No. 10-49509.

一方、リングメモリ用ニューラルネットワーク5に於いては、上記の追加学習処理で用いたプロトタイプP(r)からなる初期学習入力データと学習入力データZ(r,n)、(但し、0≦n≦nr、nrは、分類カテゴリrの追加学習入力データ数)とを用いて、表1に示すリングメモリ用ニューラルネットワーク5の為のリングメモリ用学習データを準備し、これらの学習入力データに対して全正解出力となり収束するよう学習を行ない、得られた重み係数をリングメモリ用ニューラルネットワーク5に設定して用いる。尚、表1に於いて、プロトタイプP(r)に対応した分類カテゴリ数、即ち、プロトタイプ数をR、カテゴリ別の追加学習入力データ数nrの内最大値をNmaxとする。

Figure 2006285489
On the other hand, in the neural network 5 for ring memory, initial learning input data and learning input data Z (r, n) consisting of the prototype P (r) used in the above additional learning process (where 0 ≦ n ≦ nr and nr are the number of additional learning input data of the classification category r), and prepare ring memory learning data for the ring memory neural network 5 shown in Table 1, and for these learning input data, Learning is performed so that all the correct answer outputs are converged, and the obtained weight coefficient is set in the ring memory neural network 5 and used. In Table 1, the number of classification categories corresponding to the prototype P (r), that is, the number of prototypes is R, and the maximum value of the number nr of additional learning input data for each category is Nmax.
Figure 2006285489

表1では、分類カテゴリrに割り当てられた初期学習入力データであるプロトタイプP(r)と、それに対応した学習入力データZ(r,n), 0≦n≦nrとを分類カテゴリ・グループとした学習データの関係を示す。グループ内の最後の追加学習入力データに対応した教師信号として、そのプロトタイプP(r)を割り当てられていることから、リング状態に配置された学習入力データを記憶させることができる。ここでは、この学習入力データとその教師信号との配置関係をリング傾斜配置と呼ぶこととする。即ち、プロトタイプP(r)とnr個の学習入力データZ(r,n),0≦n≦nrとからなる学習入力データと、これらがリング傾斜配置された教師信号とからなる分類カテゴリ別学習データを得る。   In Table 1, the prototype P (r), which is the initial learning input data assigned to the classification category r, and the corresponding learning input data Z (r, n), 0 ≦ n ≦ nr are classified category groups. The relationship of learning data is shown. Since the prototype P (r) is assigned as the teacher signal corresponding to the last additional learning input data in the group, the learning input data arranged in the ring state can be stored. Here, the arrangement relationship between the learning input data and the teacher signal is referred to as a ring inclination arrangement. That is, learning by classification category consisting of learning input data consisting of prototype P (r) and nr pieces of learning input data Z (r, n), 0 ≦ n ≦ nr, and teacher signals in which these are ring-tilted Get the data.

これら分類カテゴリ別学習データを全て学習させ、これらの学習入力データに対して全て正解出力となるよう収束させる。このように学習させた重み係数をリングメモリ用ニューラルネットワーク5に設定する。従って、端子15を介してリングメモリ用ニューラルネットワーク5にプロトタイプP(r)が入力されると、入力切替スイッチ7を介した、リングメモリの一連の出力フィードバック読み出し処理により、学習入力データZ(r,n)が順次読み出され、最後に、プロトタイプP(r)が読み出されることとなる。分類カテゴリrのグループ内の全学習入力データ読み出しループ回数はnr+1で与えられる。従って、プロトタイプであるリングメモリ入力信号がプロトタイプである場合には、同一のリングメモリ読み出し出力信号が得られるとグループ内の一連の学習入力データが全て読み出されたこととなる。   All the learning data for each classification category is learned, and the learning input data is converged so that all the correct answers are output. The weighting coefficient learned in this way is set in the ring memory neural network 5. Therefore, when the prototype P (r) is inputted to the ring memory neural network 5 via the terminal 15, the learning input data Z (r (r) is obtained by a series of output feedback read processing of the ring memory via the input changeover switch 7. , n) are read sequentially, and finally, the prototype P (r) is read. The number of all learning input data read loops in the group of the classification category r is given by nr + 1. Therefore, when the ring memory input signal that is a prototype is a prototype, when the same ring memory read output signal is obtained, a series of learning input data in the group is all read.

次に、本実施形態の、上記の自己連想用ニューラルネットワーク1及びリングメモリ用ニューラルネットワーク5を有する自己連想記憶装置の動作について説明する。連想ループ制御処理部3に於いて連想ループ回数j=0を、また、リングメモリ読み出しカウンタn=0を初期設定し、連想ループ制御信号の基に、入力切替スイッチ4の設定及びアトラクタ収束検出処理部2及び学習入力データメモリ8の内部状態、アトラクタ識別処理部6及び連想入力識別処理部9の初期設定を行う。連想入力信号X(0)が入力切替スイッチ4に入力され入力端子12を介して自己連想用追加学習ニューラルネットワーク1に入力されると共に、アトラクタ収束検出処理部2に入力記憶される。   Next, the operation of the self-associative memory device having the self-associative neural network 1 and the ring memory neural network 5 of the present embodiment will be described. The associative loop control processing unit 3 initializes the number of associative loops j = 0 and the ring memory read counter n = 0, and sets the input selector switch 4 and attractor convergence detection processing based on the associative loop control signal. Initial setting of the internal state of the unit 2 and the learning input data memory 8, the attractor identification processing unit 6 and the associative input identification processing unit 9 is performed. The associative input signal X (0) is input to the input changeover switch 4 and input to the self-associative additional learning neural network 1 via the input terminal 12, and is also input and stored in the attractor convergence detection processing unit 2.

また、連想入力信号X(0)は連想入力識別処理部9に入力記憶される。自己連想用追加学習ニューラルネットワーク1は、入力されたX(0)に対応した出力信号X(1)を送出し、アトラクタ収束検出処理部2へ入力する。アトラクタ収束検出処理部2では、連想ループ制御処理部3からの制御信号の基に連想ループ回数カウンタ設定(j=0)を行うとともに、入力されたX(0)とX(1)とを比較し、異なるとアトラクタ非収束状態として、連想ループ回数jをj=j+1とし、連想ループ制御処理部3に連想ループ処理要求をする。
連想ループ制御処理部3では、連想ループ処理要求があると、入力切替スイッチ4を介して自己連想用追加学習ニューラルネットワーク1とアトラクタ収束検出処理部2とに入力し、出力信号X(2)を得る。
The associative input signal X (0) is input and stored in the associative input identification processing unit 9. The additional learning neural network 1 for self-association sends an output signal X (1) corresponding to the input X (0) and inputs it to the attractor convergence detection processing unit 2. The attractor convergence detection processing unit 2 sets the associative loop number counter (j = 0) based on the control signal from the associative loop control processing unit 3 and compares the input X (0) and X (1). If they are different, the attractor non-convergence state is set, the associative loop count j is set to j = j + 1, and an associative loop processing request is sent to the associative loop control processing unit 3.
When there is an associative loop processing request, the associative loop control processing unit 3 inputs it to the self-associative additional learning neural network 1 and the attractor convergence detection processing unit 2 via the input changeover switch 4, and outputs the output signal X (2). obtain.

このようにアトラクタ収束状態の検出の為の一連の連想ループ処理を繰り返し、連想ループ処理回数jに対して、アトラクタ収束検出処理部2に於いて、自己連想用追加学習ニューラルネットワーク1の入力信号X(j)及び出力信号X(j+1)が一致すると、アトラクタに収束したと見なして、連想ループ制御処理部3へアトラクタ収束信号を送出すると共に、アトラクタ収束検出処理を終了する。更に、アトラクタ収束信号を出力端子20に出力する。この時、連想ループ回数がj=0ならば、アトラクタ収束信号(One-Shotアトラクタ収束信号)を出力端子20から送出させる。また、不一致状態が続き、指定された連想ループ回数Jになっても、アトラクタ収束が得られない場合には、発散アトラクタであり、アトラクタ発散信号を出力端子20から送出し、連想ループ処理停止要求を出し、アトラクタ収束検出処理を終了させる。更に、連想ループ制御処理部3では、アトラクタ識別処理部6の出力端子14から、アトラクタ発散識別信号を送出し、連想入力識別処理部21の端子21から非学習入力識別信号を送出させ、一連の連想ループ処理を完了させる。   In this way, a series of associative loop processing for detecting the attractor convergence state is repeated, and the attractor convergence detection processing unit 2 inputs the input signal X of the self-associative additional learning neural network 1 for the associative loop processing number j. When (j) and the output signal X (j + 1) match, it is considered that the signal has converged to the attractor, and an attractor convergence signal is sent to the associative loop control processing unit 3 and the attractor convergence detection process is terminated. Further, the attractor convergence signal is output to the output terminal 20. At this time, if the number of associative loops is j = 0, an attractor convergence signal (One-Shot attractor convergence signal) is transmitted from the output terminal 20. Further, if the inconsistency continues and the convergence of the attractor is not obtained even when the specified associative loop count J is reached, the attractor is a divergent attractor, and the attractor divergence signal is transmitted from the output terminal 20 to request the associative loop processing stop. And attractor convergence detection processing is terminated. Further, the associative loop control processing unit 3 sends an attractor divergence identification signal from the output terminal 14 of the attractor identification processing unit 6, sends a non-learning input identification signal from the terminal 21 of the associative input identification processing unit 21, and Complete the associative loop process.

アトラクタ収束検出処理部2において、アトラクタ収束状態が検出され、アトラクタ収束信号が連想ループ制御処理部3に送入されると、連想ループ制御処理部3の制御の基に、自己連想用追加学習ニューラルネットワーク1の出力信号を出力端子18からアトラクタ出力信号として、入力切替スイッチ7及び入力端子15を介してリングメモリ用ニューラルネットワーク5に送出し、アトラクタ識別処理部6、連想入力識別処理部9及び学習入力データメモリ8に於いて、それぞれ以下の学習入力データ読み出し処理と、アトラクタ識別処理及び連想入力識別処理からなる一連の連想ループ処理を行う。以下これらの一連の処理について説明する。   When the attractor convergence detection processing unit 2 detects the attractor convergence state and the attractor convergence signal is sent to the associative loop control processing unit 3, the self-associative additional learning neural network is controlled under the control of the associative loop control processing unit 3. The output signal of the network 1 is sent as an attractor output signal from the output terminal 18 to the ring memory neural network 5 via the input changeover switch 7 and the input terminal 15, and the attractor identification processing unit 6, the associative input identification processing unit 9 and learning In the input data memory 8, a series of associative loop processes including the following learning input data reading process, attractor identifying process and associative input identifying process are performed. Hereinafter, a series of these processes will be described.

連想ループ制御処理部3の制御の基に、入力切替スイッチ7を介して、自己連想用追加学習ニューラルネットワーク1の出力端子13のアトラクタ出力信号X(j+1)が入力端子15を介してリングメモリ用ニューラルネットワーク5に入力されると共に、アトラクタ識別処理部6に入力記憶される。入力端子15からのアトラクタ出力信号X(j+1)に対して、リングメモリ用ニューラルネットワーク5から出力信号Rout(1)を得、アトラクタ識別処理部6、連想入力識別処理部9及び学習入力データメモリ8へ夫々入力する。アトラクタ識別処理部6に於いて、アトラクタ出力信号X(j+1)と出力Rout(1)を比較し、不一致ならば、リングメモリ読み出しカウンタn=n+1とし(但し、初期値n=0)、連想ループ制御処理部3の制御の基に入力切替スイッチ7が制御され、Rout(1)が入力端子15を介してリングメモリ用ニューラルネットワーク5にフィードバック入力され、再度読み出し処理を行う。   Under the control of the associative loop control processing unit 3, the attractor output signal X (j + 1) of the output terminal 13 of the self-associative additional learning neural network 1 is ringed via the input terminal 15 via the input changeover switch 7. The data is input to the memory neural network 5 and is also stored in the attractor identification processing unit 6. For the attractor output signal X (j + 1) from the input terminal 15, the output signal Rout (1) is obtained from the ring memory neural network 5, and the attractor identification processing unit 6, the associative input identification processing unit 9 and the learning input data are obtained. Each is input to the memory 8. Attractor identification processing unit 6 compares attractor output signal X (j + 1) and output Rout (1), and if they do not match, set ring memory read counter n = n + 1 (however, initial value n = 0) ), The input changeover switch 7 is controlled based on the control of the associative loop control processing unit 3, and Rout (1) is fed back to the ring memory neural network 5 through the input terminal 15 and the readout process is performed again.

アトラクタ識別処理部6内のリングメモリ読み出しカウンタn(≧0)が予め指定されたカテゴリ別読み出し最大カウンタ数となる範囲内で、アトラクタ出力信号X(j+1)と出力Rout(n)が一致するまで、上記のフィードバックによる一連の処理が繰り返される。尚、カテゴリ別読み出し最大カウンタ数は、表1に示すカテゴリ別の追加学習入力データ数nr、但し(n1,n2,..nr,…nR)内の最大値Nmaxを設定する。表2に示すようにX(j)とRout(n)が一致すると、この時のリングメモリ読み出しカウンタnと同じ値を持つ学習データ数nrが存在し、然も、その対応したプロトタイプP(r)とアトラクタ出力信号X(j+1)が一致すれば、学習アトラクタであることが判明し識別でき、学習アトラクタ識別信号を連想入力識別処理部9と連想ループ制御処理部3と出力端子14へ夫々出力する。
ここで、アトラクタ識別処理部6に於けるアトラクタ識別条件を表2にまとめて示す。

Figure 2006285489
The attractor output signal X (j + 1) and output Rout (n) match within the range where the ring memory read counter n (≧ 0) in the attractor identification processing unit 6 is the maximum number of read counters by category specified in advance. Until then, a series of processes by the above feedback is repeated. Note that the maximum number of read counters for each category is set to the number nr of additional learning input data for each category shown in Table 1, where the maximum value Nmax within (n1, n2,... Nr,... NR) is set. When X (j) and Rout (n) match as shown in Table 2, there is a learning data number nr having the same value as the ring memory read counter n at this time, and the corresponding prototype P (r ) And the attractor output signal X (j + 1) can be identified and identified as a learning attractor, and the learned attractor identification signal is sent to the associative input identification processing unit 9, the associative loop control processing unit 3, and the output terminal 14. Output each one.
Here, attractor identification conditions in the attractor identification processing unit 6 are shown together in Table 2.
Figure 2006285489

一方、表2に示すように、同じ学習データ数nrを持った分類カテゴリrのプロトタイプP(r)とアトラクタ出力信号X(j+1)を比較し、一致しない場合、即ち、そのリングメモリ読み出しカウンタnに対応した学習データ数を持つプロトタイプが存在しない、或いは、一致しても、n≦Nmaxのリングメモリ読み出しカウンタnに一致する学習データ数nrのカテゴリ番号rが存在しない場合などには、アトラクタ出力信号X(j+1)はスプリアス・アトラクタであることが判明しスプリアス・アトラクタ識別信号が送出される。また、表2のようにカテゴリ別読み出し最大カウント数Nmax以下で、アトラクタ出力信号X(j+1)、出力Rout(n)及びP(r)が全て一致しない場合も、アトラクタ出力信号X(j+1)はスプリアス・アトラクタであることが判明し、スプリアス・アトラクタ識別信号を連想入力識別処理部9と連想ループ制御処理部3と出力端子14へ夫々送出する。このように、リングメモリ読み出し出力信号を用いることにより、アトラクタ出力信号の学習アトラクタかスプリアス・アトラクタかの識別ができる。   On the other hand, as shown in Table 2, the prototype P (r) of the classification category r having the same learning data number nr is compared with the attractor output signal X (j + 1). If there is no prototype having the number of learning data corresponding to the counter n, or there is no category number r of the learning data number nr that matches the ring memory read counter n with n ≦ Nmax even if they match, The attractor output signal X (j + 1) is found to be a spurious attractor, and a spurious attractor identification signal is transmitted. In addition, as shown in Table 2, the attractor output signal X (j) is also obtained when the attractor output signal X (j + 1) and the outputs Rout (n) and P (r) do not all match when the maximum number of readouts by category is Nmax or less. +1) is found to be a spurious attractor, and sends a spurious attractor identification signal to the associative input identification processing unit 9, the associative loop control processing unit 3 and the output terminal 14, respectively. In this manner, by using the ring memory read output signal, it is possible to identify the attractor output signal as a learning attractor or a spurious attractor.

アトラクタ識別処理部6に於いて、アトラクタ識別処理が終了すると、連想ループ制御処理部3は、学習アトラクタ識別の場合には、学習入力データメモリ8を読み出し、出力端子16から学習アトラクタに対応したプロトタイプとその追加学習入力データを全て送出する。
連想入力識別処理部9では、連想入力信号X(0)とRout(n)とが比較され、一旦一致したならば、連想入力信号が学習入力データであることから、学習入力データ一致状態を記憶する。ここで、アトラクタ識別処理部6から学習アトラクタ識別信号が入力されると、出力端子21から学習入力データ識別信号が送出される。学習アトラクタ識別信号が入力された時に、リングメモリ読み出し出力信号が全て連想入力信号X(0)と不一致状態で、学習入力データ不一致状態が記憶されているならば、非学習入力データ識別信号が送出される。
When the attractor identification processing unit 6 completes the attractor identification processing, the associative loop control processing unit 3 reads the learning input data memory 8 in the case of learning attractor identification, and the prototype corresponding to the learning attractor from the output terminal 16. And all the additional learning input data.
The associative input identification processing unit 9 compares the associative input signal X (0) and Rout (n), and once they match, the associative input signal is the learning input data, so the learning input data match state is stored. To do. Here, when a learning attractor identification signal is input from the attractor identification processing unit 6, a learning input data identification signal is transmitted from the output terminal 21. When the learning attractor identification signal is input, if all the ring memory read output signals do not match the associative input signal X (0) and the learning input data mismatch state is stored, the non-learning input data identification signal is transmitted. Is done.

一方、アトラクタ識別処理部6に於いて、スプリアス・アトラクタ識別信号が識別された場合には、出力端子14からスプリアス・アトラクタ識別信号を送出し、連想ループ制御処理部3の制御の基に、学習入力データメモリ8の内部状態はリセットされ、連想入力識別処理部9は、連想入力信号X(0)を非学習入力データと識別し、出力端子21から非学習入力データ識別信号を送出し、全ての処理を完了する。
尚、初期設定として、表1を基に、カテゴリ別読み出し最大カウント数Nmax、カテゴリ別追加学習入力データ数nr及びそのプロトタイプP(r)が予め記憶されている。
On the other hand, when the spurious / attractor identification signal is identified in the attractor identification processing unit 6, the spurious / attractor identification signal is transmitted from the output terminal 14, and learning is performed based on the control of the associative loop control processing unit 3. The internal state of the input data memory 8 is reset, the associative input identification processing unit 9 identifies the associative input signal X (0) as non-learning input data, sends out a non-learning input data identification signal from the output terminal 21, and all Complete the process.
As an initial setting, based on Table 1, a category-specific maximum read count number Nmax, a category-specific additional learning input data number nr, and a prototype P (r) thereof are stored in advance.

上記の説明の如く、学習アトラクタである分類カテゴリ別のプロトタイプP(r)がアトラクタ出力信号として、出力端子13から送出されると、プロトタイプP(r)とその近傍追加学習入力データとを記憶したカテゴリ別追加学習入力データ数nrに等しいリングメモリ読み出しカウンタnで、X(j+1)=Rout(nr)=P(r)となり、然もプロトタイプ(最後に読み出される)を含め分類カテゴリ別の学習入力データを全て読み出すことができる。   As described above, when a prototype P (r) for each classification category, which is a learning attractor, is transmitted as an attractor output signal from the output terminal 13, the prototype P (r) and its neighboring additional learning input data are stored. With the ring memory readout counter n equal to the number nr of additional learning input data by category, X (j + 1) = Rout (nr) = P (r), and again by prototype, including the prototype (read out last) All learning input data can be read out.

スプリアス・アトラクタであるアトラクタ出力信号が出力端子13から送出されると、出力端子14からスプリアス・アトラクタ識別信号が送出される。
尚、アトラクタ識別処理部6に於いて、出力端子14から学習アトラクタ識別信号と共に、一致したプロトタイプP(r)の分類カテゴリ番号rを送出してもよい。これによりカテゴリ分類も行うことができる。
When an attractor output signal, which is a spurious attractor, is transmitted from the output terminal 13, a spurious attractor identification signal is transmitted from the output terminal 14.
In the attractor identification processing unit 6, the classification category number r of the matched prototype P (r) may be transmitted from the output terminal 14 together with the learning attractor identification signal. Thereby, category classification can also be performed.

ここで、アトラクタ識別処理部6に於いて、出力端子13からのアトラクタ出力信号X(j+1)と予め記憶されたプロトタイプP(r)、1≦r≦Rと直接比較し、何れかと一致すると、学習アトラクタと識別し、学習アトラクタ識別信号を連想入力識別処理部9、連想ループ制御処理部3及び出力端子14へ送出してもよい。   Here, in the attractor identification processing unit 6, the attractor output signal X (j + 1) from the output terminal 13 is directly compared with the pre-stored prototype P (r), 1 ≦ r ≦ R, and either matches. Then, it may be identified as a learning attractor, and a learning attractor identification signal may be sent to the associative input identification processing unit 9, the associative loop control processing unit 3, and the output terminal 14.

上記の説明の如く、連想入力信号X(0)に対して、連想ループ処理に於いて、表3に示すようにアトラクタ収束状態を検出し、アトラクタに収束しておれば、アトラクタ出力信号X(j+1)に対して、リングメモリ用ニューラルネットワーク5から一連の学習入力データを読み出すと共に、表2に示すように、学習アトラクタかスプリアス・アトラクタかのアトラクタ識別、及び連想入力信号の学習・非学習入力識別ができる。

Figure 2006285489
As described above, with respect to the associative input signal X (0), in the associative loop processing, the attractor convergence state is detected as shown in Table 3, and if it converges on the attractor, the attractor output signal X ( j + 1), a series of learning input data is read out from the ring memory neural network 5, and as shown in Table 2, attractor identification as a learning attractor or a spurious attractor and learning / non-association of associative input signals are performed. Learning input can be identified.
Figure 2006285489

ここで、本発明の第1の実施形態に於ける図1に示す自己連想記憶処理に関して、連想入力信号X(0)が与えられた時の連想処理フローを図6に示す。尚、ここでは、自己連想用追加学習ニューラルネットワーク処理130及びリングメモリ用ニューラルネットワーク処理190に於いて、前記と同様、追加学習及び学習が夫々既に完了していることを前提として処理フローを説明する。
連想初期設定処理100は、連想ループ回数判定処理160に於ける連想ループ最大回数J、リングメモリ読み出し回数判定処理230におけるカテゴリ別読み出し最大カウント数Nmax、即ち表1に於ける分類カテゴリ内で最大の追加学習データ数であるカテゴリ内最大追加学習データ数Nmax = Max{n1,n2,..,nR}、及びアトラクタ識別処理260への表2に示すアトラクア検出及び識別の条件設定など、初期パラメータ設定を夫々行う。
Here, regarding the self-associative memory processing shown in FIG. 1 in the first embodiment of the present invention, the associative processing flow when the associative input signal X (0) is given is shown in FIG. Here, in the self-associative additional learning neural network processing 130 and the ring memory neural network processing 190, the processing flow will be described on the assumption that additional learning and learning have already been completed in the same manner as described above. .
The associative initial setting process 100 includes the maximum associative loop number J in the associative loop number determination process 160, the maximum read count number Nmax by category in the ring memory read number determination process 230, that is, the maximum in the classification category in Table 1. Initial parameter settings such as the maximum number of additional learning data in category Nmax = Max {n1, n2, .., nR} and the attractor detection and identification condition setting shown in Table 2 for attractor identification processing 260 Do each.

連想ループ初期設定処理110は、連想ループ回数jの初期設定としてj=0及びリングメモリ読み出しカウンタn=0の初期設定、連想入力―リングメモリ出力一致検出処理210及び学習入力データ記憶処理200の内部状態のリセットを行う。
連想入力信号入力設定処理120は、連想入力信号X(0)を自己連想用追加学習ニューラルネットワーク処理130、アトラクタ収束検出処理140及び連想入力-リングメモリ出力一致検出処理210へ夫々入力設定を行う。
The associative loop initial setting process 110 is an initial setting of the association loop count j as an initial setting of j = 0 and ring memory read counter n = 0, associative input-ring memory output coincidence detection process 210 and learning input data storage process 200. Reset the state.
The associative input signal input setting process 120 sets the associative input signal X (0) to the self-associative additional learning neural network process 130, the attractor convergence detection process 140, and the associative input-ring memory output coincidence detection process 210, respectively.

自己連想用追加学習ニューラルネットワーク処理130は、連想ループ回数j=0で、入力された連想入力信号X(0)に対する2値出力信号X(1)を、或いは、連想ループ回数j>0の場合には、自己連想用追加学習ニューラルネットワーク出力信号入力設定処理180を介して入力設定された連想ループ回数j-1に於ける2値出力信号X(j)を入力し、2値出力信号X(j+1)を夫々送出する。   The additional learning neural network processing 130 for self-association is the case where the number of associative loops j = 0 and the binary output signal X (1) with respect to the input associative input signal X (0) or the number of associative loops j> 0 Is inputted with the binary output signal X (j) at the association loop count j-1 input and set through the self-associative additional learning neural network output signal input setting processing 180, and the binary output signal X ( Send j + 1) respectively.

アトラクタ収束検出処理140は、連想ループ回数j=0の場合には、自己連想用追加学習ニューラルネットワーク処理130の連想入力信号X(0)に対する出力信号X(1)、或いは連想ループ回数jの場合には、2値入力信号X(j)に対する出力信号X(j+1)との一致比較を行ないアトラクタ収束状態の検出を行う。入力信号X(j)と出力信号X(j+1)とが一致しておれば、入出力信号がアトラクタとなったアトラクタ収束状態である。また、この時、連想ループ回数j=0であれば、One-Shotアトラクタ収束状態、連想ループ回数j≧1の場合、汎化アトラクタ収束状態とする。不一致ならば、アトラクタ未収束状態とする。
アトラクタ収束判定処理150に於いて、アトラクタ収束状態が得られると、リングメモリ用ニューラルネットワーク処理190を行う。一方、アトラクタ未収束状態であれば、引き続き連想ループ回数判定処理160を行う。
The attractor convergence detection processing 140 is performed when the associative loop count j = 0, the output signal X (1) for the associative input signal X (0) of the self-associative incremental learning neural network processing 130, or the associative loop count j. , A match comparison between the binary input signal X (j) and the output signal X (j + 1) is performed to detect the attractor convergence state. If the input signal X (j) and the output signal X (j + 1) match, the attractor converges with the input / output signal serving as the attractor. At this time, if the number of associative loops j = 0, the One-Shot attractor converges, and if the number of associative loops j ≧ 1, the generalized attractor converges. If they do not match, the attractor is not converged.
When the attractor convergence state is obtained in the attractor convergence determination processing 150, a ring memory neural network processing 190 is performed. On the other hand, if the attractor has not converged, the associative loop number determination process 160 is continuously performed.

連想ループ回数判定処理160では、連想ループ回数jが連想ループ最大回数J未満であれば、j←j+1設定処理170にて連想ループ回数jを1増加させる。
自己連想用追加学習ニューラルネットワーク出力信号入力設定処理180では、X(j+1)を自己連想用追加学習ニューラルネットワーク処理130の入力として設定する。その後、前回の連想ループ回数jの場合と同様に、自己連想用追加学習ニューラルネットワーク処理130、アトラクタ収束検出処理140及びアトラクタ収束判定処理150を再度実施する。
In the associative loop count determination process 160, if the associative loop count j is less than the maximum associative loop count J, the associative loop count j is incremented by 1 in the j ← j + 1 setting process 170.
In the self-associative additional learning neural network output signal input setting process 180, X (j + 1) is set as an input of the self-associative additional learning neural network process 130. Thereafter, the self-associative additional learning neural network processing 130, attractor convergence detection processing 140, and attractor convergence determination processing 150 are performed again, as in the case of the previous association loop count j.

一方、連想ループ回数判定処理160にて、連想ループ回数j=Jならば、指定された最大回数Jの連想ループ処理に於いて、連想入力信号X(0)が、アトラクタに収束ぜず、アトラクタ発散状態で不想起となったと判定する。この判定結果に従い、連想入力識別設定処理310に於いて、連想入力信号X(0)が非学習入力データで、発散アトラクタであると識別し、全ての連想ループ処理を完了する。   On the other hand, in the associative loop number determination process 160, if the associative loop number j = J, the associative input signal X (0) does not converge to the attractor in the associative loop process of the designated maximum number J, and the attractor It is determined that it has become a recollection in the divergent state. According to this determination result, in the associative input identification setting process 310, the associative input signal X (0) is identified as non-learning input data and is a divergent attractor, and all associative loop processes are completed.

アトラクタ収束判定処理150に於いて、アトラクタ収束状態であると判定されると、自己連想用追加学習ニューラルネットワーク130の出力信号であるアトラクタ出力信号X(j+1)に対して、リングメモリ用ニューラルネットワーク処理190に於いてリングメモリ読み出しを行う。
即ち、リングメモリ用ニュウラルネットワーク処理190にて、アトラクタ出力信号X(j+1)を入力し、リングメモリ出力信号Rout(1)を得え、これを学習入力データ記憶処理200にて記憶する。ここで、アトラクタ出力信号X(j+1)がプロトタイプP(r)である場合には、Rout(1)は、学習入力データZ(r,1)となる。
When it is determined in the attractor convergence determination processing 150 that the attractor is in a converged state, a ring memory neural network is used for the attractor output signal X (j + 1) that is the output signal of the self-associative additional learning neural network 130. In the network processing 190, ring memory reading is performed.
That is, in the ring memory neutral network processing 190, the attractor output signal X (j + 1) is input to obtain the ring memory output signal Rout (1), which is stored in the learning input data storage processing 200. . Here, when the attractor output signal X (j + 1) is the prototype P (r), Rout (1) becomes the learning input data Z (r, 1).

更に、連想入力―リングメモリ出力一致検出処理210にて、連想入力信号X(0)と読み出されたリングメモリ出力信号Rout(1)との一致比較を行う。一旦一致すれば、学習入力データ一致状態を設定する。不一致の場合には、学習入力データ不一致状態を設定する。
更に、アトラクタ出力ー学習入力データ一致状態判定処理220にて、X(j+1)≠Rout(n)の学習入力データ不一致状態の場合には、読み出し回数判定処理230にて、リングメモリ読み出しカウンタnがNmax未満であると、リングメモリ読み出しカウンタn←n+1処理240にて、nを1増加して、読み出されたRout(1)を入力しリングメモリ用ニューラルネットワーク処理190を再度行ない、新たなリングメモリ出力信号Rout(2)を得る。
Further, in the associative input-ring memory output coincidence detection process 210, coincidence comparison between the associative input signal X (0) and the read ring memory output signal Rout (1) is performed. Once they match, the learning input data match state is set. In the case of mismatch, a learning input data mismatch state is set.
Further, in the attractor output-learning input data coincidence state determination process 220, if the learning input data does not coincide with X (j + 1) .noteq.Rout (n), the ring memory read counter is read in the read number determination process 230. If n is less than Nmax, in the ring memory read counter n ← n + 1 process 240, n is incremented by 1, and the read Rout (1) is input and the ring memory neural network process 190 is performed again. A new ring memory output signal Rout (2) is obtained.

更に、同様に学習入力データ記憶処理200、連想入力―リングメモリ出力一致検出処理210及びアトラクタ出力ー学習入力データ一致状態判定処理220を行う。
読み出し回数判定処理230にてリングメモリ読み出しカウンタnがNmaxとなると、スプリアス・アトラクタ識別設定処理250にて、アトラクタ出力信号がスプリアス・アトラクタであると識別設定し、スプリアス・アトラクタ状態とし、学習アトラクタ識別判定処理270を行う。
Further, similarly, a learning input data storage process 200, an associative input-ring memory output coincidence detection process 210, and an attractor output-learning input data coincidence state determination process 220 are performed.
When the ring memory read counter n reaches Nmax in the number-of-reads determination process 230, the spurious / attractor identification setting process 250 identifies and sets the attractor output signal as a spurious / attractor, sets the spurious / attractor state, and identifies the learning attractor. A determination process 270 is performed.

一方、アトラクタ出力ー学習入力データ一致状態判定処理220にて、アトラクタ出力信号X(j+1)がリングメモリ出力信号Rout(n)に一致し、学習入力データ一致状態と判定されると、アトラクタ識別処理260にて、表2のようにアトラクタ出力信号X(j+1)のアトラクタ識別を行う。   On the other hand, if the attractor output signal X (j + 1) matches the ring memory output signal Rout (n) in the attractor output-learning input data match state determination process 220, and it is determined that the learn input data match state, the attractor In the identification processing 260, attractor identification of the attractor output signal X (j + 1) is performed as shown in Table 2.

即ち、アトラクタ識別処理260では、n≦Nmaxのリングメモリ読み出しカウンタnに等しい追加学習入力データ数nrを持った分類カテゴリのプロトタイプP(r)とリングメモリ出力Rout(n)及びX(j+1)との一致を調べ、一致であれば、アトラクタ出力信号X(j+1)を学習アトラクタと識別し、学習アトラクタ状態とする。また、上記の条件を満たさない場合には、アトラクタ出力信号X(j+1)はスプリアス・アトラクタと識別し、スプリアス・アトラクタ識別状態とする。(尚、同じ追加学習データ数nrを持ったプロトタイプが複数個存在する場合も表2の条件で対応できる。)   That is, in the attractor identification process 260, the prototype P (r) of the classification category having the number of additional learning input data nr equal to the ring memory read counter n of n ≦ Nmax and the ring memory outputs Rout (n) and X (j + 1 ), And if it matches, the attractor output signal X (j + 1) is identified as the learning attractor, and the learning attractor state is set. If the above condition is not satisfied, the attractor output signal X (j + 1) is identified as a spurious attractor, and a spurious attractor is identified. (Note that even when there are multiple prototypes having the same number of additional learning data nr, the conditions in Table 2 can be used.)

次に、学習アトラクタ識別判定処理270に於いて、アトラクタ出力信号X(j+1)が学習アトラクタ状態と識別された場合には、連想入力識別処理290にて、連想入力―リングメモリ出力一致検出処理210の結果、学習入力データ一致状態が設定されておれば、連想入力信号X(0)は学習入力データと識別される。ここで、更に、アトラクタ出力信号X(j+1)と一致すれば、プロトタイプであり、不一致であれば、追加学習入力データと識別される。学習入力データ不一致状態が設定されておれば、連想入力信号X(0)は非学習入力データと識別される。   Next, when the attractor output signal X (j + 1) is identified as the learning attractor state in the learning attractor identification determination process 270, the associative input-ring memory output coincidence detection is performed in the associative input identification process 290. If the learning input data matching state is set as a result of the process 210, the associative input signal X (0) is identified as learning input data. Here, if it matches the attractor output signal X (j + 1), it is a prototype, and if it does not match, it is identified as additional learning input data. If the learning input data mismatch state is set, the associative input signal X (0) is identified as non-learning input data.

学習入力データ読み出し処理300にて、学習アトラクタであるアトラクタ出力信号X(j+1)に対応した全ての追加学習入力データとプロトタイプが読み出され、一連の連想ループ処理が全て完了する。   In learning input data reading processing 300, all additional learning input data and prototypes corresponding to the attractor output signal X (j + 1), which is a learning attractor, are read, and a series of associative loop processing is completed.

一方、学習アトラクタ識別判定処理270の結果、アトラクタ出力信号X(j+1)がスプリアス・アトラクタ状態であると識別されると、連想入力非学習入力データ識別設定処理280にて、連想入力信号X(0)が非学習入力データ(未知連想入力データ)であると識別設定され、一連の連想ループ処理が全て完了する。   On the other hand, if the attractor output signal X (j + 1) is identified as being in the spurious attractor state as a result of the learning attractor identification determination process 270, the associative input non-learning input data identification setting process 280 is performed. (0) is identified and set as non-learning input data (unknown associative input data), and a series of associative loop processes are all completed.

尚、新たな連想入力信号X(0)が入力されると、連想ループ初期設定処理110を行ない、上記の一連の連想ループ処理を行う。   When a new associative input signal X (0) is input, an associative loop initial setting process 110 is performed to perform the above-described series of associative loop processes.

次に、本発明の第2の実施形態として、リングメモリを有し、前進追加学習ニューラルネットワークを用いた相互連想記憶装置について説明する。図2は、本実施形態の相互連想記憶装置の1構成例を示す。   Next, as a second embodiment of the present invention, an associative memory device having a ring memory and using a forward additional learning neural network will be described. FIG. 2 shows an example of the configuration of the associative memory device of this embodiment.

図2の相互連想記憶装置は、入力端子11からの前進連想入力信号X(0)と後進ニューラルネットワーク31からの出力信号の何れかを連想ループ制御処理部3からの制御信号により切替選択し、入力端子12を介して前進追加学習ニューラルネットワーク25へ入力すると共に,アトラクタ収束検出処理部23に送出する入力切替スイッチ4と、入力端子12からの入力信号に対して出力信号を得、出力端子13から分類カテゴリ出力信号として送出し、入力端子17を介して後進ニュ-ラルネットワーク31に入力する前進追加学習ニューラルネットワーク25と、入力端子17の入力信号に対する出力信号を得、入力切替スイッチ4及びアトラクタ収束検出処理部23へ夫々送出すると共に、アトラクタ出力信号として出力端子18から送出する後進ニューラルネットワーク31と、連想ループ制御処理部24の制御の基に、前進追加学習ニューラルネットワーク25の入力信号と後進ニューラルネットワーク31の出力信号とを入力し、アトラクタ収束状態を検出し、アトラクタ収束信号、或いはアトラクア発散信号を出力端子20へ夫々送出するアトラクタ収束検出処理部23と、出力端子18を介して得られたアトラクタ出力信号、或いはリングメモリ用ニューラルネットワーク5の出力信号を連想ループ制御処理部24からの制御信号の基に切り替え、入力端子15を介してリングメモリ用ニューラルネットワーク5へ入力する入力切替スイッチ7と、入力端子15を介して入力された入力信号に対する出力信号を、アトラクタ識別処理部6、学習入力データメモリ8、連想入力識別処理部9及びフィードバックの為の入力切替スイッチ7へ夫々送出するリングメモリ用ニューラルネットワーク5と、リングメモリ用ニューラルネットワーク5からの出力信号を学習入力データとして連想ループ制御処理部24の制御の基に夫々記憶し出力端子16から出力する学習入力データメモリ8と、連想ループ制御処理部24の制御の基に出力端子18からのアトラクタ出力信号とリングメモリ用ニューラルネットワーク5の出力信号を夫々入力し、アトラクタ出力信号を識別し、アトラクタ識別信号を連想入力識別処理部9及び出力端子14へ送出するアトラクタ識別処理部6と、連想ループ制御処理部24からの制御信号及びアトラクタ識別処理部6からのアトラクタ識別信号の基に、リングメモリ用ニューラルネットワーク5の出力信号と入力端子11からの連想入力信号X(0)の比較により、連想入力信号の学習・非学習入力データの識別を行ない出力端子21から学習・非学習入力データ識別信号を送出する連想入力識別処理部9と、入力切替スイッチ4及び7、アトラクタ収束検出処理部23、連想入力識別処理部9及びアトラクタ識別処理部6、学習入力データメモリ8を夫々制御する連想ループ制御処理部24とから構成される。   2 selects either the forward associative input signal X (0) from the input terminal 11 or the output signal from the backward neural network 31 by the control signal from the associative loop control processing unit 3, An input signal is input to the forward additional learning neural network 25 via the input terminal 12, and an output signal is obtained for the input changeover switch 4 to be sent to the attractor convergence detection processing unit 23 and the input signal from the input terminal 12. Are transmitted as classification category output signals, and are input to the backward neural network 31 via the input terminal 17 and the additional learning learning neural network 25, and the output signal for the input signal of the input terminal 17 is obtained, and the input changeover switch 4 and the attractor are obtained. Each of them is sent to the convergence detection processing unit 23 and sent from the output terminal 18 as an attractor output signal. Based on the control of the backward neural network 31 and the associative loop control processor 24, the input signal of the forward additional learning neural network 25 and the output signal of the backward neural network 31 are input, the attractor convergence state is detected, and the attractor convergence is detected. An attractor convergence detection processing unit 23 for sending a signal or an attractor divergence signal to the output terminal 20 and an attractor output signal obtained via the output terminal 18 or an output signal of the ring memory neural network 5 are associative loop control processing. Switching based on the control signal from the unit 24, the input change-over switch 7 to be input to the ring memory neural network 5 through the input terminal 15, and the output signal corresponding to the input signal input through the input terminal 15 are identified by the attractor Processing unit 6, learning input data memory 8, serial Control of the associative loop control processing unit 24 using the ring memory neural network 5 and the output signal from the ring memory neural network 5 to be transmitted to the virtual input identification processing unit 9 and the input changeover switch 7 for feedback as learning input data, respectively. , The learning input data memory 8 that is stored and output from the output terminal 16, and the attractor output signal from the output terminal 18 and the output signal of the ring memory neural network 5 are respectively controlled under the control of the associative loop control processing unit 24. An attractor identification processing unit 6 that inputs and identifies an attractor output signal and sends the attractor identification signal to the associative input identification processing unit 9 and the output terminal 14; a control signal from the associative loop control processing unit 24 and an attractor identification processing unit 6 Based on the attractor identification signal from the ring memory neural network. By comparing the output signal of the work 5 and the associative input signal X (0) from the input terminal 11, learning / non-learning input data of the associative input signal is identified, and a learning / non-learning input data identification signal is transmitted from the output terminal 21. The associative input identification processing unit 9, the input changeover switches 4 and 7, the attractor convergence detection processing unit 23, the associative input identification processing unit 9, the attractor identification processing unit 6, and the learning input data memory 8, respectively. 24.

尚、第1の実施形態に於ける自己連想記憶装置の1構成例を示す図1と、第2の実施形態に於ける相互連想記憶装置の1構成例を示す図2、及び従来技術に関する図3及び図4に於いて、同一番号を持つ機能は、同じである。従って、それらの詳細な説明は省略する。   In addition, FIG. 1 which shows one structural example of the self-associative memory device in the first embodiment, FIG. 2 which shows one structural example of the mutual associative memory device in the second embodiment, and a diagram related to the prior art. 3 and FIG. 4, the functions having the same numbers are the same. Therefore, detailed description thereof will be omitted.

以下に、アトラクタ収束検出、アトラクタ識別、連想入力データ識別及び学習入力データ読み出し処理からなる一連の連想ループ処理の動作を中心に説明する。これらの連想ループ処理に先だって、前進追加学習ニューラルネットワーク25では、前記の第1の実施形態と同様に、追加学習処理を実行して得られた重み係数を設定しておく。追加学習処理としては、先ず、予め準備されたプロトタイプP(r)で学習アトラクタを示す学習入力データと、その分類カテゴリrに対応する教師信号とからなる初期学習データを学習させ、全正解出力となり収束した初期学習を行わせる。   Hereinafter, the operation of a series of associative loop processes including attractor convergence detection, attractor identification, associative input data identification, and learning input data reading process will be mainly described. Prior to these associative loop processes, the forward additional learning neural network 25 sets the weighting coefficient obtained by executing the additional learning process in the same manner as in the first embodiment. As additional learning processing, first, learning input data indicating a learning attractor in a prototype P (r) prepared in advance and initial learning data composed of a teacher signal corresponding to the classification category r are learned, and all correct answer outputs are obtained. Have converged initial learning.

その後、予め準備された、プロトタイプの近傍テスト入力データとその分類カテゴリに対応した教師信号とを近傍テストデータとしてテストを行ない、誤った出力信号を送出している近傍テスト入力データを学習入力データZ(r,n)として、初期学習に引き続いて初期学習データと共に追加学習させ、これら学習データに対して全正解出力を送出し収束するまで追加学習を行う。その後、再度テストを行ない、プロトタイプの近傍テスト入力データに対して全て正解出力が得られると追加学習を完了する。不正解出力があれば、その近傍テストデータを追加学習入力データとして加え、上記の追加学習を再度行う。   After that, the neighborhood test input data that has been prepared in advance is tested using the neighborhood test input data of the prototype and the teacher signal corresponding to the classification category as neighborhood test data, and the erroneous output signal is transmitted. As (r, n), after the initial learning, additional learning is performed together with the initial learning data, and all correct answer outputs are sent to these learning data and additional learning is performed until convergence. Thereafter, the test is performed again, and the additional learning is completed when all the correct outputs are obtained for the prototype neighborhood test input data. If there is an incorrect answer output, the neighborhood test data is added as additional learning input data, and the additional learning is performed again.

このような一連の追加学習処理をプロトタイプの近傍テストデータに対して行ない、全ての近傍テスト入力データに対して正解出力が得られるまで繰り返す。全てのプロトタイプの近傍テスト入力データに対して正解出力を送出する追加学習が完了すると、その重み係数を設定し、前進追加学習ニューラルネットワーク25として用いる。ここで、追加学習された、プロトタイプとテストに於いて誤った出力を送出したプロトタイプの近傍テスト入力データとからなる学習入力データを同様に表1に示す。   Such a series of additional learning processes is performed on the prototype neighborhood test data, and is repeated until correct output is obtained for all neighborhood test input data. When the additional learning for sending the correct output is completed for the proximity test input data of all prototypes, the weighting coefficient is set and used as the forward additional learning neural network 25. Here, the learning input data composed of the prototype that was additionally learned and the vicinity test input data of the prototype that sent an incorrect output in the test is also shown in Table 1.

更に、前進追加学習ニューラルネットワーク25に於ける前記のプロトタイプとその教師信号とからなる初期学習データに対して逆配置の入出力関係を持つ初期学習データに関して、後進ニューラルネットワーク31が全て正解出力を送出し収束するよう学習させ、得られた重み係数を夫々設定しておく。   Further, the reverse neural network 31 sends out all correct answer outputs for the initial learning data having an input / output relationship reverse to the initial learning data composed of the prototype and its teacher signal in the forward additional learning neural network 25. Then, learning is performed so as to converge, and the obtained weighting coefficients are respectively set.

一方、リングメモリ用ニューラルネットワーク5に於いては、上記の追加学習で用いた、プロトタイプP(r)である初期学習入力データと学習入力データZ(r,n)とを用いて、表1に示すリングメモリ用ニューラルネットワーク5の教師信号を準備し、これらの学習データに対して全正解出力となり収束するよう学習を行ない、得られた重み係数をリングメモリ用ニューラルネットワーク5に設定して用いる。上記のリングメモリ用ニューラルネットワーク5の学習は、第1の実施形態に於ける自己連想記憶装置での場合と同様である。   On the other hand, the ring memory neural network 5 uses the initial learning input data and the learning input data Z (r, n), which are the prototype P (r), used in the additional learning described above, as shown in Table 1. A teacher signal of the ring memory neural network 5 shown in the figure is prepared, learning is performed so that these learning data are output as all correct answers and converge, and the obtained weight coefficients are set in the ring memory neural network 5 and used. The learning of the ring memory neural network 5 is the same as in the case of the self-associative memory device in the first embodiment.

ここで、先ず、アトラクタ収束検出処理に関する連想ループ処理について説明する。連想ループ制御処理部24に於いて、連想ループ回数j=0を初期設定し、連想ループ制御信号を、入力切替スイッチ4の設定及びアトラクタ収束検出処理部23及び学習入力データメモリ8の内部状態、アトラクタ識別処理部6及び連想入力識別処理部9の初期設定の為夫々送出する。前進連想入力信号X(0)が入力端子11を介して入力切替スイッチ4に入力され、入力端子12を介して前進追加学習ニューラルネットワーク25に入力されると共に、アトラクタ収束検出処理部23に入力記憶される。また、前進連想入力信号X(0)は連想入力識別処理部9に入力記憶される。   Here, first, an associative loop process related to the attractor convergence detection process will be described. In the associative loop control processing unit 24, the associative loop number j = 0 is initially set, and the associative loop control signal is set to the setting of the input selector switch 4 and the internal state of the attractor convergence detection processing unit 23 and the learning input data memory 8. This is sent for initial setting of the attractor identification processing unit 6 and the associative input identification processing unit 9. The forward associative input signal X (0) is input to the input changeover switch 4 via the input terminal 11, input to the forward additional learning neural network 25 via the input terminal 12, and input to the attractor convergence detection processing unit 23. Is done. Further, the forward associative input signal X (0) is input and stored in the associative input identification processing unit 9.

前進追加学習ニューラルネットワーク25は、入力されたX(0)に対応した分類カテゴリを示す出力信号Y(0)を分類カテゴリ出力信号として送出し、出力端子13を介して後進ニューラルネットワーク31の入力端子17に入力する。後進ニューラルネットワーク31は、入力された分類カテゴリ出力信号Y(0)に対して出力信号X(1)を送出し、アトラクタ収束検出処理部23へ入力する。アトラクタ収束検出処理部23では、連想ループ制御処理部24から連想ループ回数j=0の設定を行ない、入力されたX(0)とX(1)とを比較し、異なるとアトラクタ非収束状態として、連想ループ回数j=1とし、連想ループ制御処理部24に連想ループ処理要求をする。連想ループ制御処理部24では、連想ループ処理要求があると、出力信号X(1)を、入力切替スイッチ4を介して前進追加学習ニューラルネットワーク25とアトラクタ収束検出処理部23とに入力する。   The forward incremental learning neural network 25 sends an output signal Y (0) indicating a classification category corresponding to the input X (0) as a classification category output signal, and an input terminal of the backward neural network 31 via the output terminal 13. 17 The backward neural network 31 sends an output signal X (1) to the input classification category output signal Y (0) and inputs it to the attractor convergence detection processing unit 23. The attractor convergence detection processing unit 23 sets the association loop count j = 0 from the associative loop control processing unit 24, compares the input X (0) and X (1), and if different, sets the attractor non-convergence state. Associative loop count j = 1, and an associative loop processing request is sent to the associative loop control processing unit 24. When there is an associative loop processing request, the associative loop control processing unit 24 inputs the output signal X (1) to the forward additional learning neural network 25 and the attractor convergence detection processing unit 23 via the input changeover switch 4.

一連の連想ループ処理に於いて、アトラクタ収束検出処理部23にて、前進追加学習ニューラルネットワーク25の入力信号X(j)及び後進ニューラルネットワーク31の出力信号X(j+1)が一致すると、アトラクタに収束したと見なして、連想ループ制御処理部24へアトラクタ収束信号を送出すると共に、アトラクタ収束信号を出力端子20に出力する。この時、j=0ならば、アトラクタ収束信号(One-Shotアトラクタ収束信号)を、j≠0ならば、アトラクタ収束信号(汎化アトラクタ収束信号)を出力端子20から夫々送出させる。また、指定された連想ループ最大回数Jになっても、アトラクタ収束が得られない場合には、アトラクタ発散信号を出力端子20から送出させると共に、連想ループ制御処理部24では、アトラクタ識別処理部6の出力端子14から、アトラクタ発散識別信号を送出し、連想入力識別処理部9の端子21から非学習入力識別信号を送出させ、一連の連想ループ処理を完了させる。   In the series of associative loop processing, when the attractor convergence detection processing unit 23 matches the input signal X (j) of the forward additional learning neural network 25 and the output signal X (j + 1) of the backward neural network 31, The attractor convergence signal is transmitted to the associative loop control processing unit 24 and the attractor convergence signal is output to the output terminal 20. At this time, if j = 0, an attractor convergence signal (One-Shot attractor convergence signal) is sent from the output terminal 20, and if j ≠ 0, an attractor convergence signal (generalized attractor convergence signal) is sent from the output terminal 20. If attractor convergence cannot be obtained even when the maximum number of associative loops J is reached, an attractor divergence signal is sent out from the output terminal 20, and the associative loop control processing unit 24 uses the attractor identification processing unit 6. The attractor divergence identification signal is transmitted from the output terminal 14 and the non-learning input identification signal is transmitted from the terminal 21 of the associative input identification processing unit 9 to complete a series of associative loop processing.

次に、アトラクタ収束状態が検出された後の、アトラクタ識別、連想入力データ識別及び学習入力データ読み出し処理に関する一連の連想ループ処理を説明する。ここで、第1の実施形態の自己連想記憶装置に於ける図1及び本実施形態の図2に示すように、入力切替スイッチ7、リングメモリ用ニューラルネトワーク5、学習入力データメモリ8及び連想入力識別処理部9の構成及び接続は基本的に同一で、従って、これらの動作は互いに同じであることから、詳細説明は省略する。基本的に、アトラクタ識別処理部6に於いて、リングメモリ用ニューラルネットワーク5から指定されたカウンタ範囲Nmax(カテゴリ別読み出し最大カウント数Nmax)内で順次読み出された出力信号Rout(n)と出力端子18からのアトラクタ出力信号X(j+1)とが一致した時のリングメモリ読み出しカウンタnと等しい追加学習入力データ数nrが存在し、然もX(j+1)が、プロトタイプP(r)と一致すると、学習アトラクタと識別し、学習アトラクタ識別信号を連想入力識別処理部9へ送出する。X(j+1)=Rout(n)となるリングメモリ読み出しカウンタn(但し、n≦Nmax)と等しいnrが存在しない場合、X(j+1)=Rout(nr)=P(r)が成立しない場合或いはリングメモリ読み出しカウンタn>Nmaxの場合には、スプリアス・アトラクタと識別し、スプリアス・アトラクタ識別信号を送出する。   Next, a series of associative loop processing relating to attractor identification, associative input data identification, and learning input data read processing after the attractor convergence state is detected will be described. Here, as shown in FIG. 1 in the self-associative memory device of the first embodiment and FIG. 2 of the present embodiment, the input changeover switch 7, the ring memory neural network 5, the learning input data memory 8 and the associative input. Since the configuration and connection of the identification processing unit 9 are basically the same, and the operations thereof are the same as each other, detailed description thereof will be omitted. Basically, the attractor identification processing unit 6 outputs and outputs the output signal Rout (n) sequentially read within the counter range Nmax (the maximum number of readings by category Nmax) designated from the ring memory neural network 5. There is an additional learning input data number nr equal to the ring memory read counter n when the attractor output signal X (j + 1) from the terminal 18 matches, and X (j + 1) is still the prototype P (r ) Is identified as a learning attractor, and a learning attractor identification signal is sent to the associative input identification processing unit 9. When there is no nr equal to the ring memory read counter n (where n ≦ Nmax) where X (j + 1) = Rout (n), X (j + 1) = Rout (nr) = P (r) When not established or when the ring memory read counter n> Nmax, the spurious attractor is identified and a spurious attractor identifying signal is transmitted.

また、学習アトラクタと識別されると、学習入力データメモリ8から対応した一連の学習入力データが読み出され、更に連想入力識別処理部9では、前進連想入力信号X(0)が読み出されたプロトタイプ、或いは追加学習入力データの何れかと一致すれば学習入力データ、その他の場合には非学習入力データと識別され、学習入力データ識別信号或いは非学習入力データ識別信号が夫々送出される。
上記の説明の如く、前進連想入力信号X(0)に対してアトラクタ収束状態を検出し、プロトタイプに対応したアトラクタ出力信号X(j+1)を基に、アトラクタ識別を行う共に、前進連想入力信号X(0)の学習・非学習入力識別と、対応した一連の学習入力データの読み出しができる。
When the learning attractor is identified, a series of corresponding learning input data is read from the learning input data memory 8, and the associative input identification processing unit 9 reads the forward associative input signal X (0). If it matches either the prototype or the additional learning input data, it is identified as learning input data, and in other cases, it is identified as non-learning input data, and a learning input data identification signal or non-learning input data identification signal is sent out.
As described above, the attractor convergence state is detected for the forward associative input signal X (0), and the attractor is identified based on the attractor output signal X (j + 1) corresponding to the prototype, and the forward associative input Learning / non-learning input identification of the signal X (0) and reading of a corresponding series of learning input data can be performed.

次に、本発明の第2の実施形態に於ける図2に示す相互連想記憶処理に関して、前進連想入力信号X(0)が与えられた時の連想処理フローを図7に示す。尚、ここでは、前進追加学習ニューラルネットワーク処理430、後進ニューラルネットワーク処理610及びリングメモリ用ニューラルネットワーク処理490は、前記の第1の実施形態と同様に、追加学習及び学習が夫々既に完了していることを前提として処理フローを説明する。   Next, FIG. 7 shows an associative process flow when the forward associative input signal X (0) is given with respect to the mutual associative memory process shown in FIG. 2 in the second embodiment of the present invention. Here, the additional learning and learning are already completed in the forward additional learning neural network processing 430, the backward neural network processing 610, and the neural network processing for ring memory 490, respectively, as in the first embodiment. The processing flow will be described on the premise of this.

前進連想初期設定処理400は、連想ループ回数判定処理460に於ける連想ループ最大回数J、リングメモリ読み出し回数判定処理530におけるカテゴリ別読み出し最大カウント数Nmax及びアトラクタ識別処理560への表2に示すアトラクア検出及び識別の条件設定など、初期パラメータ設定を行う。
連想ループ初期設定処理410は、連想ループ回数jの初期設定としてj=0、及びリングメモリ読み出しカウンタn=0の初期設定、連想入力―リングメモリ出力一致検出処理510及び学習入力データ記憶処理500の内部状態のリセットを行う。
前進連想入力信号入力設定処理420は、前進連想入力信号X(0)を前進追加学習ニューラルネットワーク処理430、アトラクタ収束検出処理440及び連想入力-リングメモリ出力一致検出処理510へ夫々入力設定を行う。
The forward associative initial setting process 400 includes the maximum associative loop count J in the associative loop count determination process 460, the category maximum read count Nmax in the ring memory read count determination process 530, and the attractor shown in Table 2 for the attractor identification process 560. Set initial parameters such as detection and identification condition settings.
The associative loop initial setting process 410 is an initial setting of the associative loop number j, j = 0, initial setting of the ring memory read counter n = 0, associative input-ring memory output coincidence detection process 510 and learning input data storage process 500. Reset internal state.
The forward associative input signal input setting process 420 sets the forward associative input signal X (0) to the forward additional learning neural network process 430, the attractor convergence detection process 440, and the associative input-ring memory output coincidence detection process 510, respectively.

前進追加学習ニューラルネットワーク処理430は、連想ループ回数j=0で、入力された前進連想入力信号X(0)、或いは、連想ループ回数j>0の場合には、後進ニューラルネットワーク出力信号入力設定処理480を介して入力設定された連想ループ回数j-1での出力信号X(j)を処理し、出力信号Y(0)、Y(j)を夫々送出する。
後進ニューラルネットワーク処理610では、入力されたY(0)、Y(j)に対して出力信号X(1)、X(j+1)を夫々送出する。
The forward additional learning neural network processing 430 is a backward neural network output signal input setting process when the associative loop count j = 0 and the input forward associative input signal X (0) or the associative loop count j> 0. The output signal X (j) at the associative loop count j−1 input and set via 480 is processed, and output signals Y (0) and Y (j) are sent out, respectively.
In the backward neural network processing 610, output signals X (1) and X (j + 1) are sent to the input Y (0) and Y (j), respectively.

アトラクタ収束検出処理440は、連想ループ回数j=0の場合には、前進追加学習ニューラルネットワーク処理430の入力信号X(0)及び後進ニューラルネットワーク処理610からの出力信号X(1)、或いは連想ループ回数j(j≧1)の場合には、前進追加学習ニューラルネットワーク処理430の2値入力信号X(j)及び後進ニューラルネットワーク処理610からの出力信号X(j+1)との一致比較処理を行ない、一致の場合にはアトラクタ収束状態、不一致の場合にはアトラクタ未収束状態とする。この時、表3に示すように、連想ループ回数j=0の時に一致しておれば、One-Shotアトラクタ収束状態、連想ループ回数j≧1の場合、汎化アトラクタ収束状態とする。   When the associative loop count j = 0, the attractor convergence detection process 440 includes the input signal X (0) of the forward incremental learning neural network process 430 and the output signal X (1) of the backward neural network process 610, or the associative loop. When the number of times is j (j ≧ 1), a coincidence comparison process between the binary input signal X (j) of the forward incremental learning neural network process 430 and the output signal X (j + 1) of the backward neural network process 610 is performed. In the case of coincidence, the attractor is converged. In the case of inconsistency, the attractor is not converged. At this time, as shown in Table 3, if the number of associative loops j = 0, the one-shot attractor converges, and if the number of associative loops j ≧ 1, the generalized attractor converges.

アトラクタ収束判定処理450に於いて、アトラクタ収束状態であれば、リングメモリ用ニューラルネットワーク処理490を行う。アトラクタ未収束状態であれば、連想ループ回数判定処理460を行う。   In the attractor convergence determination processing 450, if the attractor convergence state, the ring memory neural network processing 490 is performed. If the attractor has not converged, an associative loop number determination process 460 is performed.

連想ループ回数判定処理460では、連想ループ回数jが連想ループ最大回数J未満であれば、j←j+1設定処理470にて連想ループ回数jを1増加させる。
後進ニューラルネットワーク出力信号入力設定処理480では、X(j+1)を前進追加学習ニューラルネットワーク処理430の入力として設定する。その後、前回の連想ループ回数jの場合と同様に、前進追加学習ニューラルネットワーク処理430、後進ニューラルネットワーク処理610、アトラクタ収束検出処理440及びアトラクタ収束判定処理450を再度実施する。
In the associative loop count determination process 460, if the associative loop count j is less than the maximum associative loop count J, the associative loop count j is incremented by 1 in the j ← j + 1 setting process 470.
In the backward neural network output signal input setting process 480, X (j + 1) is set as an input of the forward additional learning neural network process 430. Thereafter, as in the case of the previous associative loop count j, forward additional learning neural network processing 430, backward neural network processing 610, attractor convergence detection processing 440 and attractor convergence determination processing 450 are performed again.

一方、連想ループ回数判定処理460にて、連想ループ回数j=Jならば、指定された最大回数Jの連想ループ処理に於いて、アトラクタに収束せず、連想入力信号X(0)がアトラクタ発散状態で不想起となったとし、連想入力識別設定処理620に於いて、連想入力信号X(0)が非学習入力データで、発散アトラクタであるとし、全ての連想ループ処理を完了する。   On the other hand, if the associative loop count j = J in the associative loop count determination process 460, the associative input signal X (0) is not diverted to the attractor in the specified maximum count J associative loop process. In the associative input identification setting process 620, it is assumed that the associative input signal X (0) is non-learning input data and a divergent attractor, and all associative loop processes are completed.

アトラクタ収束判定処理450に於いて、アトラクタ収束状態であると判定されると、後進ニューラルネットワーク処理610の出力信号であるアトラクタ出力信号X(j+1)を基に、リングメモリ用ニューラルネトワーク処理490を介したリングメモリ読み出しによるアトラクタ識別、連想入力信号識別及び対応した学習入力データ読み出す処理を引き続き行う。ここで、これらの一連の連想ループ処理は、図7での処理と全て同一であることから、説明は省略する。   When it is determined in the attractor convergence determination processing 450 that the attractor is in a converged state, the ring memory neural network processing 490 is performed based on the attractor output signal X (j + 1) that is the output signal of the backward neural network processing 610. The process of reading the attractor identification, associative input signal identification and the corresponding learning input data by reading the ring memory via is continued. Here, these series of associative loop processes are all the same as the processes in FIG.

本発明に於ける第3の実施形態に於けるリングメモリとアトラクタ識別機能を有した、前進追加学習ニューラルネットワークを用いた相互連想記憶装置の1構成例について、図5を用いて説明する。尚、ここでの前進追加学習ニューラルネットワーク25の学習に於いて用いられる教師信号は、密な2値コード(例えば、教師信号としての2値コードの整数変換値が0から、或いはある整数値から連続となる場合など)に分類カテゴリrを夫々割り当てることにより、スプリアス・アトラクタが発生しない場合及び、前進追加学習ニューラルネットワーク25に於いて、Winner takes allのような疎な2値出力形式を持った教師信号が用いられる場合に、学習アトラクタ識別及びスプリアス・アトラクタ識別をアトラクタ検出識別処理26に於いて行う例について説明する。   One configuration example of an associative memory device using a forward additional learning neural network having a ring memory and attractor identification function in the third embodiment of the present invention will be described with reference to FIG. Note that the teacher signal used in the learning of the forward additional learning neural network 25 here is a dense binary code (for example, the integer conversion value of the binary code as the teacher signal is 0 or from some integer value). By assigning the classification category r to each of the cases (such as continuous), the spurious attractor is not generated, and the forward additional learning neural network 25 has a sparse binary output format such as “Winner takes all”. An example in which learning attractor identification and spurious attractor identification are performed in the attractor detection identification processing 26 when a teacher signal is used will be described.

尚、ここでは、説明を簡単にする為に、前進追加学習ニューラルネットワーク25はR個の出力層ユニット数を持ち、その2値出力信号Y(j)として、One out of R 或いはWinner takes allと呼ばれる疎な2値符号化形式を仮定する。   Here, for the sake of simplicity of explanation, the forward incremental learning neural network 25 has R output layer units, and its binary output signal Y (j) is expressed as One out of R or winner takes all. Assume a sparse binary encoding format called.

図5の相互連想記憶装置は、入力端子11からの前進連想入力信号X(0)と後進ニューラルネットワーク31からの出力信号の何れかを連想ループ制御処理部28からの制御信号により切替選択し、入力端子12を介して前進追加学習ニューラルネットワーク25へ入力すると共に,アトラクタ検出識別処理部26に送出する入力切替スイッチ4と、入力端子12からの入力信号に対して出力信号を得、出力端子13から分類カテゴリ出力信号として送出し、入力端子17を介して後進ニュ-ラルネットワーク31に入力すると共に、アトラクタ検出識別処理部26へ送出する前進追加学習ニューラルネットワーク25と、入力端子17の入力信号に対する出力信号を得、入力切替スイッチ4及びアトラクタ検出識別処理部26へ夫々送出すると共に、アトラクタ出力信号として出力端子18から送出する後進ニューラルネットワーク31と、連想ループ制御処理部28の制御の基に、前進追加学習ニューラルネットワーク25の入力信号及び出力信号と後進ニューラルネットワーク31の出力信号とを入力し、アトラクタ収束状態を検出し、収束したアトラクタを識別し、アトラクタ検出識別信号を連想ループ制御処理部28へ、アトラクタ識別信号を出力端子27へ夫々送出するアトラクタ検出識別処理部26と、出力端子18を介して得られたアトラクタ出力信号、或いはリングメモリ用ニューラルネットワーク5の出力信号を連想ループ制御処理部28からの制御信号の基に切り替え、入力端子15を介してリングメモリ用ニューラルネットワーク5へ入力する入力切替スイッチ7と、入力端子15を介して入力された入力信号に対する出力信号を、アトラクタ一致検出処理部29、学習入力データメモリ8、連想入力識別処理部9及びフィードバックの為の入力切替スイッチ7へ夫々送出するリングメモリ用ニューラルネットワーク5と、リングメモリ用ニューラルネットワーク5からの出力信号を学習入力データとして連想ループ制御処理部28の制御の基に夫々記憶し出力端子16から出力する学習入力データメモリ8と、連想ループ制御処理部28の制御の基に出力端子18からのアトラクタ出力信号とリングメモリ用ニューラルネットワーク5の出力信号を夫々入力し、一致状態を検出し、アトラクタ一致判定信号を連想入力識別処理部9へ送出するアトラクタ一致検出処理部29と、連想ループ制御処理部28からの制御信号の基に、出力端子18からのアトラクタ出力信号と入力端子11からの連想入力信号X(0)とにより連想入力信号の学習・非学習入力データの識別を行ない出力端子21から学習・非学習入力データ識別信号を送出する連想入力識別処理部9と、入力切替スイッチ4及び7、アトラクタ検出識別処理部26、連想入力識別処理部9及びアトラクタ一致検出処理部29、学習入力データメモリ8を夫々制御する連想ループ制御処理部28とから構成される。   5 selects either the forward associative input signal X (0) from the input terminal 11 or the output signal from the backward neural network 31 by the control signal from the associative loop control processing unit 28, An input signal is input to the forward additional learning neural network 25 via the input terminal 12, and an output signal is obtained for the input changeover switch 4 to be sent to the attractor detection / identification processing unit 26 and the input signal from the input terminal 12. As a classification category output signal, input to the backward neural network 31 via the input terminal 17, and forward additional learning neural network 25 to be transmitted to the attractor detection / identification processing unit 26, and the input signal to the input terminal 17 When an output signal is obtained and sent to the input selector switch 4 and the attractor detection identification processing unit 26, respectively. Further, based on the control of the associative loop control processing unit 28, the backward neural network 31 that is sent as an attractor output signal from the output terminal 18, the input signal and the output signal of the forward additional learning neural network 25, and the output signal of the backward neural network 31 And an attractor detection / identification processing unit 26 for detecting the attractor convergence state, identifying the converged attractor, and sending the attractor detection identification signal to the associative loop control processing unit 28 and the attractor identification signal to the output terminal 27; The attractor output signal obtained via the output terminal 18 or the output signal of the ring memory neural network 5 is switched based on the control signal from the associative loop control processing unit 28, and the ring memory neural signal is obtained via the input terminal 15. Input selector switch for input to network 5 7 and an output signal corresponding to the input signal input through the input terminal 15 are sent to the attractor match detection processing unit 29, the learning input data memory 8, the associative input identification processing unit 9, and the input changeover switch 7 for feedback, respectively. A ring memory neural network 5 and a learning input data memory 8 that stores output signals from the ring memory neural network 5 as learning input data under the control of the associative loop control processing unit 28 and outputs them from the output terminal 16. Under the control of the associative loop control processing unit 28, the attractor output signal from the output terminal 18 and the output signal of the ring memory neural network 5 are input, the matching state is detected, and the attractor matching determination signal is associative input identification processed. Attractor match detection processing unit 29 to be sent to the unit 9, and associative loop control processing unit 8 based on the control signal from the output terminal 18 and the associative input signal X (0) from the input terminal 11 to identify learning / non-learning input data of the associative input signal from the output terminal 21. Associative input identification processing unit 9 for sending a learning / non-learning input data identification signal, input selector switches 4 and 7, attractor detection identification processing unit 26, associative input identification processing unit 9 and attractor match detection processing unit 29, learning input data The associative loop control processing unit 28 controls the memory 8.

尚、第1の実施形態に於ける自己連想記憶装置の1構成例を示す図1、第2の実施形態に於ける相互連想記憶装置の1構成例を示す図2、本実施形態の相互連想記憶装置の1構成例を示す図5、従来技術の構成例である図3及び図4に於いて、同一番号の機能は、同一である。従って、これらの詳細な説明は省略する。   FIG. 1 shows one configuration example of the self-associative memory device in the first embodiment, FIG. 2 shows one configuration example of the mutual associative memory device in the second embodiment, and the mutual association of this embodiment. In FIG. 5 showing one configuration example of the storage device and in FIG. 3 and FIG. 4 showing the configuration example of the prior art, the functions with the same numbers are the same. Therefore, detailed description thereof will be omitted.

アトラクタ検出識別処理部26では、表3に示すように、アトラクタ収束状態が検出された場合、前進追加学習ニューラルネットワーク25のWinner takes all 2値表現形式を持った出力信号Y(j)のハミング重み、Hamming・Weight{Y(j)}、即ちRビットからなる出力信号Y(j)の1となるビットの数を計算する。
その結果、
Hamming・Weight{Y(j)}≠1 (1)
を満足する場合には、前進追加学習ニューラルネットワーク25の出力信号Y(j)が学習外カテゴリの2値出力信号であると識別される。即ち、分類カテゴリに割り当てられた2値教師信号以外の2値出力信号となっており、後進ニューラルネットワーク31の出力であるアトラクタ出力信号はスプリアス・アトラクタで、スプリアス・アトラクタ識別となる。
As shown in Table 3, the attractor detection / identification processing unit 26, when the attractor convergence state is detected, the Hamming weight of the output signal Y (j) having the winner takes all binary representation format of the forward additional learning neural network 25. , Hamming · Weight {Y (j)}, that is, the number of 1 bits of the output signal Y (j) composed of R bits is calculated.
as a result,
Hamming ・ Weight {Y (j)} ≠ 1 (1)
Is satisfied, the output signal Y (j) of the forward additional learning neural network 25 is identified as a binary output signal of the category outside learning. That is, it is a binary output signal other than the binary teacher signal assigned to the classification category, and the attractor output signal which is the output of the backward neural network 31 is a spurious attractor, which is a spurious attractor identification.

一方、
Hamming・Weight{Y(j)}=1 (2)
を満たす場合には、前進追加学習ニューラルネットワーク25の出力信号Y(j)が学習内カテゴリの出力信号と識別され、前進追加学習ニューラルネットワーク25の教師信号の何れかと同じであり、後進ニューラルネットワーク31の出力であるアトラクタ出力信号は、学習アトラクタであり、学習アトラクタ識別となる。
on the other hand,
Hamming / Weight {Y (j)} = 1 (2)
If the condition is satisfied, the output signal Y (j) of the forward additional learning neural network 25 is identified as the output signal of the in-learning category, and is the same as one of the teacher signals of the forward additional learning neural network 25, and the backward neural network 31. The attractor output signal that is the output of is a learning attractor and is a learning attractor identification.

以下に、これら一連の連想ループ処理の動作を説明する。連想ループ処理に先だって、前進追加学習ニューラルネットワーク25では、相互連想記憶装置の第2の実施形態に於いて説明した如く、プロトタイプを用いた初期学習と、初期学習データ及びテストに於いて出力誤りとなったプロトタイプの近傍テストデータからなる追加学習データとを学習データとして追加学習して得られた重み係数が設定されている。   Below, the operation | movement of these series of associative loop processes is demonstrated. Prior to the associative loop process, in the forward additional learning neural network 25, as described in the second embodiment of the associative memory device, initial learning using a prototype, output error in initial learning data and tests, and A weighting coefficient obtained by additionally learning additional learning data including the prototype test data of the prototype that has become additional learning data is set.

また、図2と同様に、前進追加学習ニューラルネットワーク25に於ける前記のプロトタイプとその教師信号からなる初期学習データに対して逆配置の入出力関係を持つ初期学習データに関して、後進ニューラルネットワーク31が全て正解出力を送出し収束するよう学習させ、得られた重み係数を夫々設定しておく。   Similarly to FIG. 2, the backward neural network 31 has a reverse neural network 31 with respect to initial learning data having an input / output relationship reversely arranged with respect to the initial learning data composed of the prototype and its teacher signal in the forward additional learning neural network 25. All correct outputs are sent and learned to converge, and the obtained weight coefficients are set respectively.

前進追加学習ニューラルネットワーク25は、後進ニューラルネットワーク31と同一のデータ構造の2値出力信号を送出し、後進ニューラルネットワーク31は前進連想入力信号と同一のデータ構造の出力信号を送出する。
更に、リングメモリ用ニューラルネットワーク5に於いても、図2と同様に、プロトタイプP(r)である初期学習入力データと学習入力データZ(r,n)とを用いて、表1に示すリングメモリ用ニューラルネットワーク5の学習データを準備し、これらの学習データに対して全正解出力となり収束するよう学習を行ない、得られた重み係数をリングメモリ用ニューラルネットワーク5に設定する。
The forward additional learning neural network 25 sends a binary output signal having the same data structure as the backward neural network 31, and the backward neural network 31 sends an output signal having the same data structure as the forward associative input signal.
Further, in the ring memory neural network 5, as in FIG. 2, the initial learning input data and the learning input data Z (r, n), which are prototypes P (r), are used as shown in Table 1. Learning data of the memory neural network 5 is prepared, learning is performed so that the learning data becomes an all correct output and converges, and the obtained weight coefficient is set in the ring memory neural network 5.

アトラクタ検出識別処理部26に関する連想ループ処理では、連想ループ制御処理部28に於いて連想ループ回数j=0を初期設定し、連想ループ制御信号の基に、入力切替スイッチ4の設定及びアトラクタ検出識別処理部26及び学習入力データメモリ8の内部状態、連想入力識別処理部9及びアトラクタ一致検出処理部29などの初期設定を夫々行う。入力端子11に前進連想入力信号X(0)が入力されると、入力切替スイッチ4は、入力端子11と入力端子12とを接続し、アトラクタ収束識別処理に関する連想ループ処理が実行される。
入力端子11の前進連想入力信号X(0)が前進追加学習ニューラルネットワーク25に入力され、更にアトラクタ検出識別処理部26及び連想入力識別処理部9へ入力され記憶される。
In the associative loop process related to the attractor detection identification processing unit 26, the associative loop control processing unit 28 initially sets the associative loop count j = 0, and based on the associative loop control signal, the setting of the input selector switch 4 and the attractor detection identification. Initial settings are made for the internal state of the processing unit 26 and the learning input data memory 8, the associative input identification processing unit 9, the attractor match detection processing unit 29, and the like. When the forward associative input signal X (0) is input to the input terminal 11, the input changeover switch 4 connects the input terminal 11 and the input terminal 12, and the associative loop process related to the attractor convergence identification process is executed.
The forward associative input signal X (0) at the input terminal 11 is input to the forward additional learning neural network 25, and further input to and stored in the attractor detection identification processing unit 26 and the associative input identification processing unit 9.

連想ループ回数j=0の場合に、前進連想入力信号X(0)に対応して、前進追加学習ニューラルネットワーク25から分類カテゴリ出力信号としての出力信号Y(0)、更に後進ニューラルネットワーク31から出力信号X(1)が夫々得られる。また、連想ループ回数j(但し、j≧1)の場合には、連想ループ制御処理部28からの制御信号の基に、入力切替スイッチ4を介して入力端子12に後進ニューラルネットワーク31の出力信号X(j)が入力され、更に前進追加学習ニューラルネットワーク25から出力信号Y(j)、後進ニューラルネットワーク31から出力信号X(j+1)が夫々得られ、これらの比較の為に、アトラクタ検出識別処理部26に夫々入力され記憶される。   When the associative loop count j = 0, the output signal Y (0) as the classification category output signal from the forward additional learning neural network 25 and the output from the backward neural network 31 corresponding to the forward associative input signal X (0). Signals X (1) are obtained respectively. When the number of associative loops is j (where j ≧ 1), the output signal of the backward neural network 31 is sent to the input terminal 12 via the input selector switch 4 based on the control signal from the associative loop control processing unit 28. X (j) is inputted, and further, an output signal Y (j) is obtained from the forward incremental learning neural network 25 and an output signal X (j + 1) is obtained from the backward neural network 31, respectively. Each is input and stored in the identification processing unit 26.

更に、アトラクタ検出識別処理部26では、表3の如く、これらの前進追加学習ニューラルネットワーク25及び後進ニューラルネットワーク31の記憶された入出力信号X(j-1)、Y(j-1)、X(j)、Y(j)、X(j+1)を夫々比較し、アトラクタの収束状態の検出と識別を行う。連想ループ回数j(但し、j≧1)に於いて、X(j-1)=X(j)、Y(j-1)=Y(j)、X(j)=X(j+1)の関係を満たすとアトラクタ収束状態になる。j=1で、アトラクタ収束状態が検出されると、Y(j)が式(2)を満足し、学習内カテゴリであれば、One-Shot学習アトラクタ識別信号、式(1)を満足し、学習外カテゴリであれば、One-Shotスプリアス・アトラクタ識別信号、また、j≠1の場合には、夫々汎化学習アトラクタ識別信号、学習外カテゴリであれば、汎化スプリアス・アトラクタ識別信号を出力端子27に夫々送出する。尚、連想ループ回数に無関係に、アトラクタの識別を単純に学習アトラクタ識別信号、スプリアス・アトラクタ識別信号及びアトラクタ発散識別信号としてもよい。   Further, the attractor detection and identification processing unit 26 stores the input / output signals X (j−1), Y (j−1), X stored in the forward additional learning neural network 25 and the backward neural network 31 as shown in Table 3. (j), Y (j), and X (j + 1) are compared, and the convergence state of the attractor is detected and identified. Associative loop count j (where j ≧ 1), X (j-1) = X (j), Y (j-1) = Y (j), X (j) = X (j + 1) If the relationship is satisfied, the attractor converges. When attractor convergence state is detected with j = 1, Y (j) satisfies Expression (2), and if it is a learning category, satisfies the One-Shot learning attractor identification signal, Expression (1), If the category is not learning, the One-Shot spurious attractor identification signal is output. If j ≠ 1, the generalized learning attractor identification signal is output. If the category is not learning, the generalized spurious attractor identification signal is output. Each is sent to the terminal 27. Regardless of the number of associative loops, the attractor may be identified simply as a learning attractor identification signal, a spurious attractor identification signal, or an attractor divergence identification signal.

また、表3の如く、アトラクタ検出識別処理部26に於いて、アトラクタ未収束状態で、連想ループ回数jが連想ループ最大回数J未満であれば、連想ループ処理要求信号を、アトラクタ収束状態ならば、学習アトラクタ識別信号かスプリアス・アトラクタ識別信号かのアトラクタ識別信号を連想ループ制御処理部28へ送出する。また、アトラクタ未収束状態で、連想ループ回数が最大回数Jであれば、アトラクタ発散状態として、アトラクタ発散識別信号を連想ループ制御処理部28及び出力端子27に送出する。   Further, as shown in Table 3, in the attractor detection and identification processing unit 26, if the associative loop count j is less than the maximum associative loop count J in the attractor non-converged state, the associative loop processing request signal is The attractor identification signal, which is either the learning attractor identification signal or the spurious attractor identification signal, is sent to the associative loop control processing unit 28. If the number of associative loops is the maximum number J in the attractor unconvergence state, the attractor divergence identification signal is sent to the associative loop control processing unit 28 and the output terminal 27 as the attractor divergence state.

連想ループ制御処理部28では、アトラクタ未収束信号が入力されると、連想ループ処理を継続し、アトラクタ発散識別信号が入力されるとアトラクタ検出識別の為の連想ループ処理を終了する。
また、アトラクタ検出識別処理部26からアトラクタ識別信号が入力されると、アトラクタ検出識別の為の連想ループ処理を終了し、学習・非学習データ識別とアトラクタ出力信号に対応した学習入力データをリングメモリ用ニューラルネットワーク5から読み出す為のリングメモリ読み出し処理の連想ループ処理を行う。以下これらの一連の処理について説明する。
The associative loop control processing unit 28 continues the associative loop process when the attractor unconvergence signal is input, and ends the associative loop process for attractor detection and identification when the attractor divergence identification signal is input.
When an attractor identification signal is input from the attractor detection identification processing unit 26, the associative loop process for attractor detection identification is terminated, and learning input data corresponding to learning / non-learning data identification and the attractor output signal is stored in the ring memory. The associative loop process of the ring memory reading process for reading from the neural network 5 is performed. Hereinafter, a series of these processes will be described.

連想ループ制御処理部28の制御の基に、アトラクタ検出識別処理部26からアトラクタ識別信号としてのOne-Shot 及び汎化スプリアス・アトラクタ識別信号が入力された場合、或いはアトラクタ発散識別信号の場合には、アトラクタ出力信号は無意味な情報を有していることから、端子27からスプリアス・アトラクタ識別信号、或いはアトラクタ発散識別信号を、また、端子21からは、非学習入力識別信号を送出し、全ての連想ループ処理を完了させる。
一方、One-Shot或いは汎化学習アトラクタなどの学習アトラクタ識別信号が入力されると、出力端子13から分類カテゴリ出力信号を得、更に、出力端子18からのアトラクタ出力信号を基に、リングメモリ用ニューラルネットワーク5からのこれに対応した一連の追加学習入力データとプロトタイプとを読み出し、更に、前進連想入力信号X(0)が未知連想入力データであるか、プロトタイプ或いは追加学習入力データであるかの連想入力識別処理を行う。この為、入力切替スイッチ7を介して、後進ニューラルネットワーク31の出力端子18のアトラクタ出力信号X(j+1)が入力端子15を介してリングメモリ用ニューラルネットワーク5に入力されると共に、学習入力データメモリ8及びアトラクタ一致検出処理部29に入力記憶される。入力端子15からのアトラクタ出力信号X(j+1)に対して、リングメモリ用ニューラルネットワーク5から出力信号Rout(1)を得、アトラクタ一致検出処理部29、連想入力識別処理部9及び学習入力データメモリ8へ夫々入力する。
Under the control of the associative loop control processing unit 28, when the one-shot and generalized spurious attractor identification signal as the attractor identification signal is input from the attractor detection identification processing unit 26, or in the case of the attractor divergence identification signal Since the attractor output signal has meaningless information, a spurious attractor identification signal or attractor divergence identification signal is transmitted from the terminal 27, and a non-learning input identification signal is transmitted from the terminal 21. Complete the associative loop process.
On the other hand, when a learning attractor identification signal such as a one-shot or generalized learning attractor is input, a classification category output signal is obtained from the output terminal 13, and based on the attractor output signal from the output terminal 18, it is used for a ring memory. A series of additional learning input data and a prototype corresponding to this from the neural network 5 are read out, and whether the forward associative input signal X (0) is unknown associative input data, prototype or additional learning input data. Perform associative input identification processing. For this reason, the attractor output signal X (j + 1) at the output terminal 18 of the backward neural network 31 is input to the ring memory neural network 5 via the input terminal 15 via the input changeover switch 7, and the learning input. The data is stored in the data memory 8 and the attractor match detection processing unit 29. For the attractor output signal X (j + 1) from the input terminal 15, the output signal Rout (1) is obtained from the ring memory neural network 5, and the attractor match detection processing unit 29, the associative input identification processing unit 9 and the learning input are obtained. Each is input to the data memory 8.

アトラクタ一致検出処理部29に於いて、アトラクタ出力信号X(j+1)と出力Rout(1)を比較し、不一致ならば、リングメモリ読み出しカウンタn=n+1と1増加し(但し、初期値n=0)し、連想ループ制御処理部28の制御の基に入力切替スイッチ7を切替え、Rout(1)が入力端子15を介してリングメモリ用ニューラルネットワーク5にフィードバック入力される。
アトラクタ一致検出処理部29内のリングメモリ読み出しカウンタnが予め指定されたカテゴリ別読み出し最大カウント数Nmaxとなる範囲内で、アトラクタ出力信号X(j+1)と出力Rout(n)が一致するまで、上記の一連のフィードバックによる読み出し処理が繰り返される。尚、カテゴリ別読み出し最大カウント数Nnaxは、表1に示すカテゴリ別追加学習入力データ数nr内の最大値Nmaxを設定する。アトラクタ出力信号X(j+1)と出力Rout(n)が一致すると、分類カテゴリに対応した全ての学習入力データを読み出し、学習入力データメモリ8に記憶したこととなる。
The attractor coincidence detection processing unit 29 compares the attractor output signal X (j + 1) with the output Rout (1). If they do not coincide, the ring memory read counter n = n + 1 is incremented by 1 (however, the initial value (Value n = 0), and the input changeover switch 7 is switched under the control of the associative loop control processing unit 28, and Rout (1) is fed back to the ring memory neural network 5 via the input terminal 15.
Until the attractor output signal X (j + 1) and the output Rout (n) match within the range in which the ring memory read counter n in the attractor coincidence detection processing unit 29 reaches the pre-categorized read maximum count number Nmax. The above-described series of feedback read processing is repeated. The category-specific maximum read count number Nnax is set to the maximum value Nmax in the category-specific additional learning input data number nr shown in Table 1. When the attractor output signal X (j + 1) matches the output Rout (n), all learning input data corresponding to the classification category is read out and stored in the learning input data memory 8.

また、リングメモリ読み出し完了信号を連想入力識別処理部9へ出力する。連想入力識別処理部9では、この間に読み出された追加学習入力データの何れかに連想入力信号X(0)が一致していると、連想入力信号X(0)は追加学習入力データ或いはプロトタイプに一致していると、学習入力データ識別、何れとも一致していなければ、非学習入力データ識別とされ、出力端子21から夫々送出される。また、連想ループ制御処理部28へ全処理完了信号を送出する。連想ループ制御処理部28がこの信号を受け取ると全ての一連の処理が完了し、新たな連想入力信号の受信状態とする。新たな前進連想入力信号X(0)が入力端子11に入力されると、再び連想ループ回数j=0とし、上記の一連の連想ループ処理を実施する。   In addition, a ring memory read completion signal is output to the associative input identification processing unit 9. In the associative input identification processing unit 9, if the associative input signal X (0) coincides with any of the additional learning input data read during this period, the associative input signal X (0) is converted into the additional learning input data or the prototype. , The learning input data is identified, and if it does not match, the non-learning input data is identified and transmitted from the output terminal 21. Further, an all process completion signal is sent to the associative loop control processing unit 28. When the associative loop control processing unit 28 receives this signal, all the series of processing is completed, and a new associative input signal is received. When a new forward associative input signal X (0) is input to the input terminal 11, the number of associative loops j = 0 is set again, and the above-described series of associative loop processing is performed.

本発明の第3の実施形態では、前進追加学習ニューラルネットワーク25の2値出力形式として、Winner Takes All 或いはOne out of Rの出力形式を用いて、学習内外カテゴリ識別処理を行う場合について説明したが、この2値出力形式に限るものではなく、2値出力形式を基に前進追加学習ニューラルネットワーク25の出力信号から学習内外カテゴリ識別が行えるものであればよい。また、例えば、特願2004-236466「相互連想記憶装置とそのソフトウェア」に詳細が記載されているが、2値教師信号である密な2値コード全てを連続した通し番号に整数値変換した、即ち、0から最大分類カテゴリ番号(=R-1)の通し番号から構成された分類カテゴリ番号領域を設け、前進追加学習ニューラルネットワーク25の2値出力信号Y(j)を分類カテゴリ番号に変換し比較処理をする学習内外カテゴリ識別方法や、ある特定の整数値以上の分類カテゴリ番号から連続した分類カテゴリ番号から構成された分類カテゴリ番号領域を設け、これらを2値コードに対応させた教師信号を用いて学習させ、2値出力信号Y(j)を分類カテゴリ番号に変換し比較処理をする学習内外カテゴリ識別方法を用いても良い。このような出力表現形式の2値教師信号を用いた場合には、スプリアス・アトラクタは発生しないことから、アトラクタ検出識別処理部26は、アトラクタ収束状態の検出機能だけでよい。   In the third embodiment of the present invention, a case has been described in which learning internal / external category identification processing is performed using the winner take all or one out of R output format as the binary output format of the forward incremental learning neural network 25. However, the present invention is not limited to this binary output format, as long as the learning internal / external category can be identified from the output signal of the forward incremental learning neural network 25 based on the binary output format. Also, for example, the details are described in Japanese Patent Application No. 2004-236466 “Interassociative Memory Device and Software”, but all dense binary codes, which are binary teacher signals, are converted into consecutive serial numbers. , A classification category number region composed of serial numbers from 0 to the maximum classification category number (= R-1) is provided, and the binary output signal Y (j) of the forward incremental learning neural network 25 is converted into a classification category number for comparison processing. Using a teacher signal in which a classification category number area composed of classification category numbers consecutive from classification category numbers equal to or greater than a specific integer value is provided, and these are associated with binary codes. A learning internal / external category identification method that performs learning and converts the binary output signal Y (j) into classification category numbers and performs comparison processing may be used. When a binary teacher signal in such an output representation format is used, since a spurious attractor does not occur, the attractor detection identification processing unit 26 only needs to detect the attractor convergence state.

即ち、上記の分類カテゴリ番号領域を表すために必要となる最小ビット数以上の2値コードの分散型出力形式を持った2値出力信号を用いても良い。特に、2値教師信号数或いは分類カテゴリ数Rが2のべき乗(R=2**Qで、完全パッキング・コード)である場合には、所要最小ビット数を用いることにより、学習外カテゴリを発生することはなく、常に学習アトラクタか汎化学習アトラクタに収束し、One-Shot及び汎化スプリアス・アトラクタを発生しない、非常に優れた特性が実現され、アトラクタ識別が簡単となる。   That is, a binary output signal having a distributed output format of a binary code that is equal to or greater than the minimum number of bits required to represent the above category category number area may be used. In particular, when the number of binary teacher signals or the number of classification categories R is a power of 2 (R = 2 ** Q, a complete packing code), a non-learning category is generated by using the required minimum number of bits. It never converges, it always converges to a learning attractor or generalized learning attractor, does not generate One-Shot and generalized spurious attractors, and realizes a very good characteristic, and makes attractor identification easy.

尚、収束状態のアトラクタを、One-Shot学習アトラクタと汎化学習アトラクタ、One-Shotスプリアス・アトラクタと汎化スプリアス・アトラクタと夫々識別したが、これらを簡単に、学習トラクタとスプリアス・アトラクタとに識別してもよい。
上記の説明の如く、前進連想入力信号X(0)に対して、アトラクタ収束状態を検出し、アトラクタ識別を行う共に、分類カテゴリ出力信号Y(j)を得、プロトタイプに対応したアトラクタ出力信号X(j+1)を基に、前進連想入力信号の学習・非学習入力識別と、対応した一連の学習入力データの読み出しができる。
The attracted attractors were identified as One-Shot learning attractor, generalized learning attractor, One-Shot spurious attractor, and generalized spurious attractor. You may identify.
As described above, the attractor convergence state is detected for the forward associative input signal X (0), the attractor is identified, the classification category output signal Y (j) is obtained, and the attractor output signal X corresponding to the prototype is obtained. Based on (j + 1), learning / non-learning input identification of the forward associative input signal and reading of a series of corresponding learning input data can be performed.

次に、本発明の第3の実施形態に於ける図5に示す相互連想記憶処理に関して、連想入力信号X(0)が与えられた時の連想処理フローを図8に示す。尚、ここでは、前進追加学習ニューラルネットワーク処理730、後進ニューラルネットワーク処理610及びリングメモリ用ニューラルネットワーク処理490に於いて、前記と同様、追加学習及び学習が夫々既に完了していることを前提として処理フローを説明する。   Next, FIG. 8 shows an associative process flow when the associative input signal X (0) is given with respect to the mutual associative memory process shown in FIG. 5 in the third embodiment of the present invention. Here, in the forward additional learning neural network processing 730, the backward neural network processing 610, and the neural network processing for ring memory 490, processing is performed on the assumption that additional learning and learning have already been completed as described above. The flow will be described.

前進連想初期設定処理700は、連想ループ回数判定処理460に於ける連想ループ最大回数J、及びアトラクタ識別処理740への表3に示すアトラクタ検出及び識別の条件設定など、初期パラメータ設定を行う。
連想ループ初期設定処理710では、連想ループ回数jの初期設定としてj=0、及びリングメモリ読み出しカウンタn=0の初期設定、連想入力―リングメモリ出力一致検出処理510及び学習入力データ記憶処理500の内部状態のリセットを行う。
前進連想入力信号入力設定処理720では、前進連想入力信号X(0)を前進追加学習ニューラルネットワーク処理730、アトラクタ検出識別処理740及び連想入力-リングメモリ出力一致検出処理510へ夫々入力設定を行う。
The forward associative initial setting process 700 performs initial parameter settings such as the maximum associative loop number J in the associative loop number determination process 460 and the attractor detection and identification condition settings shown in Table 3 in the attractor identification process 740.
In the associative loop initial setting process 710, the initial setting of the associative loop count j is j = 0, the initial setting of the ring memory read counter n = 0, the associative input-ring memory output match detection process 510, and the learning input data storage process 500. Reset internal state.
In the forward associative input signal input setting process 720, the forward associative input signal X (0) is input to the forward additional learning neural network process 730, the attractor detection identification process 740, and the associative input-ring memory output coincidence detection process 510, respectively.

前進追加学習ニューラルネットワーク処理730は、連想ループ回数j=0で、入力された前進連想入力信号X(0)、或いは、連想ループ回数j>0の場合には、後進ニューラルネットワーク出力信号入力設定処理480を介して入力設定された出力信号X(j)を処理し、出力信号Y(0)、Y(j)を夫々送出する。
後進ニューラルネットワーク処理610では、入力されたY(0)、Y(j)に対して出力信号X(1)、X(j+1)を夫々送出する。
The forward additional learning neural network processing 730 is a backward neural network output signal input setting process when the associative loop count j = 0 and the input forward associative input signal X (0) or the associative loop count j> 0. The output signal X (j) input and set via 480 is processed, and output signals Y (0) and Y (j) are sent out, respectively.
In the backward neural network processing 610, output signals X (1) and X (j + 1) are sent to the input Y (0) and Y (j), respectively.

アトラクタ検出識別処理740は、連想ループ回数j=0の場合には、前進追加学習ニューラルネットワーク処理730の入力信号X(0)、出力信号Y(0)及び後進ニューラルネットワーク処理610からの出力信号X(1)、或いは連想ループ回数jの場合には、前進追加学習ニューラルネットワーク処理730の入力信号X(j)、出力信号Y(j)及び後進ニューラルネットワーク処理610からの出力信号X(j+1)を用いた一致比較からアトラクタ収束状態の検出を行う。X(j)とX(j+1)とが一致すれば、アトラクタ収束状態、また、この時、連想ループ回数j=0であれば、One-Shotアトラクタ収束状態、連想ループ回数j≧1の場合、汎化アトラクタ収束状態とする。不一致ならばアトラクタ未収束状態とする。   The attractor detection identification process 740, when the association loop count j = 0, is the input signal X (0), the output signal Y (0) of the forward additional learning neural network process 730, and the output signal X of the backward neural network process 610. (1) or in the case of the association loop count j, the input signal X (j), the output signal Y (j) of the forward additional learning neural network processing 730, and the output signal X (j + 1) of the backward neural network processing 610 ) Is used to detect attractor convergence. If X (j) and X (j + 1) match, the attractor convergence state, and if the association loop count j = 0 at this time, the One-Shot attractor convergence state, the association loop count j ≧ 1 In this case, the generalized attractor converges. If they do not match, the attractor is not converged.

更に、アトラクタ収束判定処理450に於いて、アトラクタ収束状態であれば、夫々リングメモリ用ニューラルネットワーク処理490を行う。アトラクタ未収束状態であれば、連想ループ回数判定処理460を行う。   Furthermore, in the attractor convergence determination processing 450, if the attractor convergence state, the ring memory neural network processing 490 is performed. If the attractor has not converged, an associative loop number determination process 460 is performed.

連想ループ回数判定処理460では、連想ループ回数jが連想ループ最大回数J未満であれば、j←j+1設定処理470にて連想ループ回数jを1増加させる。
後進ニューラルネットワーク出力信号入力設定処理480では、X(j+1)を前進追加学習ニューラルネットワーク処理730の入力として設定する。その後、前回の連想ループ回数jの場合と同様に、前進追加学習ニューラルネットワーク処理730、後進ニューラルネットワーク処理610、アトラクタ検出識別処理740及びアトラクタ収束判定処理450を再度実施する。
In the associative loop count determination process 460, if the associative loop count j is less than the maximum associative loop count J, the associative loop count j is incremented by 1 in the j ← j + 1 setting process 470.
In the backward neural network output signal input setting process 480, X (j + 1) is set as an input of the forward additional learning neural network process 730. Thereafter, as in the case of the previous associative loop count j, the forward additional learning neural network processing 730, the backward neural network processing 610, the attractor detection identification processing 740, and the attractor convergence determination processing 450 are performed again.

一方、連想ループ回数判定処理460にて、連想ループ回数j=Jならば、指定された最大回数Jの連想ループ処理に於いて、アトラクタに収束せず、連想入力信号X(0)がアトラクタ発散状態で不想起となったとし、連想入力識別設定処理620に於いて、連想入力信号X(0)が非学習入力識別信号と、アトラクタ発散識別信号を送出し、全ての連想ループ処理を完了する。   On the other hand, if the associative loop count j = J in the associative loop count determination process 460, the associative input signal X (0) is not diverted to the attractor in the specified maximum count J associative loop process. In the associative input identification setting processing 620, the associative input identification signal X (0) sends a non-learning input identification signal and an attractor divergence identification signal to complete all associative loop processing. .

アトラクタ判定識別処理740に於いて、アトラクタ収束状態であると判定されると、更に学習アトラクタかスプリアス・アトラクタかの識別を行う。
アトラクタ判定識別処理740では、前進追加学習ニューラルネットワーク処理730の出力信号Y(j)である2値出力コードのハミング重みを計算し、式(1)を満たす場合には、学習外カテゴリの2値出力信号であることからスプリアス・アトラクタと識別され、式(2)を満たす場合には、学習内カテゴリの出力信号であることから学習アトラクアと夫々識別される。
In the attractor determination and identification process 740, if it is determined that the attractor is in a converged state, it is further identified whether it is a learning attractor or a spurious attractor.
In the attractor determination and identification process 740, the hamming weight of the binary output code that is the output signal Y (j) of the forward additional learning neural network process 730 is calculated. Since it is an output signal, it is identified as a spurious attractor. When Expression (2) is satisfied, it is identified as a learning atraqua because it is an output signal in the learning category.

学習アトラクタ判定処理750に於いて、後進ニューラルネットワーク処理610の出力信号であるアトラクタ出力信号X(j+1)が、スプリアス・アトラクタ識別であると判定されたならば、連想入力識別設定処理630に於いて、スプリアス・アトラクタ識別信号、非学習入力識別信号を送出して、全ての一連の連想ループ処理を完了する。
一方、学習アトラクタ識別であると判定されると、リングメモリ用ニューラルネットワーク処理490を介したリングメモリ読み出しによる連想入力信号識別処理、及び対応した学習入力データ読み出す処理を引き続き以下のように行う。
If it is determined in the learning attractor determination processing 750 that the attractor output signal X (j + 1), which is the output signal of the backward neural network processing 610, is spurious attractor identification, the associative input identification setting processing 630 is performed. Then, a spurious attractor identification signal and a non-learning input identification signal are transmitted to complete the entire series of associative loop processing.
On the other hand, if it is determined that the learning attractor is identified, the associative input signal identifying process by ring memory reading via the ring memory neural network process 490 and the corresponding learning input data reading process are continued as follows.

リングメモリ用ニューラルネットワーク処理490にて、学習アトラクタであるアトラクタ出力信号X(j+1)を入力し、リングメモリ出力信号Rout(1)を得え、これを学習入力データ記憶処理500にて記憶する。
更に、連想入力識別の為の連想入力―リングメモリ出力一致検出処理510にて、連想入力信号X(0)とリングメモリ出力信号Rout(1)の一致比較を行う。一旦一致すれば、学習入力データであり、追加学習入力データかプロトタイプであることが明らかであることから、学習入力データ一致状態を設定する。
In the ring memory neural network processing 490, an attractor output signal X (j + 1) as a learning attractor is input to obtain a ring memory output signal Rout (1), which is stored in the learning input data storage processing 500. To do.
Further, in the associative input-ring memory output coincidence detection process 510 for associative input identification, the associative input signal X (0) and the ring memory output signal Rout (1) are compared for coincidence. Once they match, it is clear that the input data is learning input data, and additional learning input data or a prototype, so a learning input data matching state is set.

アトラクタ出力ー学習入力データ一致状態判定処理520にて、アトラクタ出力信号とリングメモリ出力Rout(1)との一致判定を行ない、不一致の場合には、リングメモリ読み出しカウンタn←n+1処理540にて、nを1増加して、リングメモリ用ニューラルネットワーク処理490を再度行ない、新たなリングメモリ出力信号Rout(n)を得る。更に、学習入力データ記憶処理500、連想入力―リングメモリ出力一致検出処理510及びアトラクタ出力ー学習入力データ一致状態判定処理520を行う。   In the attractor output-learning input data match state determination process 520, a match determination is made between the attractor output signal and the ring memory output Rout (1). If there is a mismatch, the ring memory read counter n ← n + 1 process 540 is entered. Then, n is incremented by 1, and the ring memory neural network processing 490 is performed again to obtain a new ring memory output signal Rout (n). Further, a learning input data storage process 500, an associative input-ring memory output coincidence detection process 510, and an attractor output-learning input data coincidence state determination process 520 are performed.

アトラクタ出力ー学習入力データ一致状態判定処理520にて、アトラクタ出力信号X(j+1)がリングメモリ出力信号Rout(n)に一致すると、学習アトラクタであるアトラクタ出力信号X(j+1)に対応した追加学習入力データ及びプロトタイプP(r)を全て読み出したことから、連想入力識別処理590にて、連想入力―リングメモリ出力一致検出処理510の結果、学習入力データ一致状態が設定されておれば、連想入力信号X(0)は、学習入力データと識別される。更に、アトラクタ出力信号と一致すれば、プロトタイプで、不一致であれば、追加学習入力データと識別される。学習入力データ不一致状態が設定されておれば、連想入力信号X(0)は非学習入力データと識別される。
学習入力データ読み出し処理600にて、学習アトラクタであるアトラクタ出力信号X(j+1)に対応した全ての追加学習入力データとプロトタイプとが読み出され、一連の連想ループ処理が全て完了する。
When the attractor output signal X (j + 1) matches the ring memory output signal Rout (n) in the attractor output-learning input data matching state determination process 520, the attractor output signal X (j + 1), which is a learning attractor, is obtained. Since all the corresponding additional learning input data and prototype P (r) have been read out, associative input-ring memory output coincidence detection processing 510 is set in the associative input identification process 590, so that the learning input data coincidence state is set. For example, the associative input signal X (0) is identified as learning input data. Further, if it matches the attractor output signal, it is a prototype, and if it does not match, it is identified as additional learning input data. If the learning input data mismatch state is set, the associative input signal X (0) is identified as non-learning input data.
In learning input data reading processing 600, all additional learning input data and prototypes corresponding to the attractor output signal X (j + 1), which is a learning attractor, are read, and a series of associative loop processing is completed.

尚、新たな連想入力信号X(0)が入力されると、連想ループ初期設定処理710を行ない、上記の一連の連想ループ処理を行う。   When a new associative input signal X (0) is input, an associative loop initial setting process 710 is performed, and the above series of associative loop processes are performed.

上記の実施形態の連想記憶装置では、記憶量に対応した自己連想用ニューラルネットワークや前進追加学習ニューラルネットワークのプトロタイプである学習アトラクタの数が非常に多い場合、即ち連想記憶の所要記憶量が非常に大きい場合にも、多層ニューラルネットワークの中間層ユニット数を増やすことで、追加学習を確実に正しく収束させることができ連想記憶を実現することが可能である。従って、記憶容量を従来方式の連想記憶装置より飛躍的に連想特性を改善することができる。   In the associative memory device of the above-described embodiment, when the number of learning attractors that are prototypes of the self-associative neural network and the forward additional learning neural network corresponding to the storage amount is very large, that is, the required storage amount of the associative memory is very large. Even if it is large, by increasing the number of intermediate layer units of the multilayer neural network, it is possible to reliably converge additional learning correctly and to realize associative memory. Therefore, the associative characteristics of the storage capacity can be dramatically improved as compared with the conventional associative memory device.

また、従来の自己連想メモリでは、記憶容量の制限から記憶できる学習アトラクタとして、代表的なものに限られ、然も互いに余り相関のない学習アトラクタであることの制限があったが、本実施形態の自己及び相互連想記憶装置では、この代表的な学習アトラクタ以外に、それらに似た大きな相関を持った複雑な入力データも追加学習入力データとして多く記憶でき、然も複雑な前進連想入力信号や後進連想入力信号に対しても学習アトラクタに収束させることができる。   In the conventional self-associative memory, the learning attractor that can be stored due to the limitation of the storage capacity is limited to a representative one, and there is a restriction that the learning attractors are not much correlated with each other. In addition to this typical learning attractor, the self and mutual associative memory devices can store a large amount of complex input data having a large correlation similar to them as additional learning input data. The reverse associative input signal can be converged to the learning attractor.

本発明の実施形態では、3層ニューラルネットワークを用いた場合について説明したが、3層以上の多層ニューラルネットワークでも良い。更に、多層ニューラルネットワークに限ることなく、入出力が同一の形式を持った2値教師信号を利用して学習させたニューラルネットワークでもよい。
また、分類カテゴリに対してWinner Takes allのような疎な2値出力コードを用いる代わりに、密な分散型2値コード、例えば、表し得る全ての2値コードに分類カテゴリを割り当てた出力2値コード(完全パッキング・コード)や、ある範囲内で連続した整数値に変換される2値コードに分類カテゴリを割り当てた出力2値コード(連続割り当てコード)などを用いた、高い汎化能力を持った前進追加学習ニューラルネットワークを適用してもよい。これにより、スプリアス・アトラクタを発生させることなく処理を行うこともできる。
In the embodiment of the present invention, the case where a three-layer neural network is used has been described, but a multilayer neural network having three or more layers may be used. Furthermore, the present invention is not limited to a multilayer neural network, and may be a neural network trained using a binary teacher signal having the same input / output format.
Also, instead of using a sparse binary output code such as Winner Takes all for a classification category, a dense distributed binary code, for example, an output binary in which a classification category is assigned to all binary codes that can be represented. High generalization ability using code (complete packing code) and output binary code (consecutive allocation code) that assigns a classification category to a binary code converted into a continuous integer value within a certain range A forward incremental learning neural network may be applied. As a result, processing can be performed without generating spurious attractors.

以上述べたように、従来の自己連想メモリでは、そのデータ記憶容量が非常に少ない。また、学習アトラクタ数や学習アトラクタの距離分布によっては、連想能力を高くできないなどの問題がある。
また、従来の相互連想メモリ装置は、データ記憶容量は大きくできるが、スプリアス・アトラクタが多く発生するなど、連想特性が余り優れていない。然も後進多層ニューラルネットワークからのアトラクタ出力信号は、所望の学習アトラクタかスプリアス・アトラクタかの識別や連想入力識別もできない。従って、アトラクタ出力信号を用いた応用処理システムでは誤動作が避けられない。
As described above, the conventional self-associative memory has a very small data storage capacity. Further, there is a problem that the associative ability cannot be increased depending on the number of learning attractors and the distance distribution of the learning attractors.
In addition, the conventional associative memory device can increase the data storage capacity, but the associative characteristics are not so excellent, such as a large number of spurious attractors. However, the attractor output signal from the backward multi-layer neural network cannot identify the desired learning attractor or spurious attractor or associative input. Therefore, malfunctions cannot be avoided in the application processing system using the attractor output signal.

これに対して、本発明の連想記憶装置に於いては、記憶する大量の学習アトラクタ数に応じて、中間層ユニット数を増やし、全正解出力となるよう収束させ追加学習を行った、非常に高い汎化能力を持った追加学習ニューラルネットワークを導入することにより、スプリアス・アトラクタの発生の大幅な削減とアトラクタ吸引力の改善が図られ、非常に優れた連想特性を持ち、然も非常に多量の学習アトラクタを記憶できる。また、プロトタイプ及び追加学習入力データを記憶したリングメモリの導入により、それらの読み出しループ処理に於ける、連想入力信号の学習・非学習入力データ識別、学習アトラクタ及びスプリアス・アトラクタ間のアトラクタ識別、及びアトラクタ出力信号に対応した全ての学習入力データの読み出しなどをダイナミックに行うことができる。   On the other hand, in the associative memory device of the present invention, the number of intermediate layer units was increased according to the large number of learning attractors to be stored, and the additional learning was performed by converging to obtain all correct answer outputs. By introducing an additional learning neural network with a high generalization ability, the spurious attractor generation is greatly reduced and the attracting force of the attractor is improved. Can learn learning attractors. Also, by introducing a ring memory storing prototypes and additional learning input data, learning / non-learning input data identification of associative input signals, attractor identification between learning attractors and spurious attractors in the readout loop processing, and It is possible to dynamically read out all learning input data corresponding to the attractor output signal.

このように自己及び相互連想記憶の構造面及び特性面で非常に優れており、種々の応用に合わせた自由な設計が可能で、然も信頼性も優れている。従って、従来の自己或いは相互連想記憶装置では、記憶容量だけでなく、アトラクタ吸引力、多くのスプリアス・アトラクタの発生などに関しても、種々の実用上の制約があったが、これらの問題を解決できる。
また、非常に優れた連想特性と大容量記憶能力以外に、カテゴリ分類能力、アトラクタ識別能力、連想入力識別能力及び収束したアトラクタ出力信号に対応した学習入力データ読み出し機能を有していることから、非常に幅広い応用処理システムにも適用できる。
As described above, the structure and characteristics of the self and the associative memory are very excellent, a free design according to various applications is possible, and the reliability is also excellent. Therefore, the conventional self-associative memory device has various practical restrictions on not only the storage capacity but also the attracting force of the attractor and the generation of many spurious attractors, but these problems can be solved. .
In addition to the excellent associative characteristics and large-capacity storage capability, it also has a category classification capability, attractor identification capability, associative input identification capability, and a learning input data readout function corresponding to converged attractor output signals. It can be applied to a very wide range of application processing systems.

上記の幅広い効果から、本発明のリングメモリを有し、追加学習ニュ−ラルネットワークを用いた自己及び相互連想記憶装置は、セキュリティ管理システムや不正アクセス検出などのセキュリティシステムへの応用、バイオメトリクスに於ける各種高機能なパターン認識や多くの雑音などにより劣化した大容量の画像データなどの認識への応用、高速データ検索などへの応用、更にはネットワーク障害状態の異常状態検出などネットワーク障害検出システムへの応用など、非常に幅広く適用できる特徴を有している。   Due to the above-mentioned wide effects, the self-associative memory device having the ring memory of the present invention and using the additional learning neural network can be applied to security systems such as security management systems and unauthorized access detection, and biometrics. Network failure detection system such as various high-performance pattern recognition and application to recognition of large-capacity image data degraded by a lot of noise, application to high-speed data retrieval, etc. It has characteristics that can be applied to a wide range of applications.

本発明の第1の実施形態に於ける追加学習入力データを記憶したリングメモリとアトラクタ識別機能とを有した、自己連想用追加学習ニューラルネットワークとを用いた自己連想記憶装置の1構成例である。1 is a configuration example of a self-associative memory device using a self-associative additional learning neural network having a ring memory storing attracting learning input data and an attractor identification function in the first embodiment of the present invention. . 本発明の第2の実施形態に於ける追加学習入力データを記憶したリングメモリとアトラクタ識別機能を有した、前進追加学習ニューラルネットワークを用いた相互連想記憶装置の1構成例である。It is one structural example of the mutual associative memory device using the forward additional learning neural network which has the ring memory and attractor identification function which memorize | stored the additional learning input data in the 2nd Embodiment of this invention. 従来方式に於ける自己連想ニューラルネットワークによる自己連想記憶装置の1構成例である。It is one structural example of the self-associative memory device by the self-associative neural network in the conventional system. 従来方式に於ける前進及び更新ニューラルネットワークを用いた相互連想記憶装置の1構成例である。It is one structural example of the mutual associative memory device using the advance and update neural network in a conventional system. 本発明の第3の実施形態に於ける追加学習入力データを記憶したリングメモリとアトラクタ識別機能を有した、前進追加学習ニューラルネットワークを用いた相互連想記憶装置の1構成例である。It is one structural example of the mutual associative memory device using the forward additional learning neural network which has the ring memory and the attractor identification function which memorize | stored the additional learning input data in the 3rd Embodiment of this invention. 本発明の第1の実施形態に於ける連想入力信号に対する自己連想記憶の連想ループ処理フロー図である。It is an associative loop process flow figure of the self-associative memory with respect to the associative input signal in the 1st Embodiment of this invention. 本発明の第2の実施形態に於ける前進連想入力信号に対する相互連想メモリの連想ループ処理フロー図である。It is an associative loop process flow figure of the mutual associative memory with respect to the forward associative input signal in the 2nd Embodiment of this invention. 本発明の第3の実施形態に於ける前進連想入力信号に対する相互連想メモリの連想ループ処理フロー図である。It is an associative loop processing flow figure of the mutual associative memory with respect to the forward associative input signal in the 3rd Embodiment of this invention.

符号の説明Explanation of symbols

1 自己連想用追加学習ニューラルネットワーク
2 アトラクタ収束検出処理部
3 連想ループ制御処理部
入力切替スイッチ
5 リングメモリ用ニューラルネットワーク
6 アトラクタ識別処理部
7 入力切替スイッチ
8 学習入力データ記憶メモリ
9 連想入力識別処理部
10 入力切替スイッチ
11 連想入力信号端子
12 ニューラルネットワーク入力端子
13 ニューラルネットワーク出力端子
14 アトラクタ識別出力端子
15 リングメモリ入力端子
16 学習データ出力端子
17 後進ニューラルネットワーク入力端子
18 後進ニューラルネットワーク出力端子
19 後進連想入力端子
20 アトラクタ収束検出出力端子
21 連想入力識別出力端子
22 アトラクタ検出識別処理部
23 アトラクタ収束検出処理部
24 連想ループ制御処理部
25 前進追加学習ニューラルネットワーク
26 アトラクタ検出識別処理部
27 アトラクタ検出識別出力端子
28 連想ループ制御処理部
29 アトラクタ一致検出処理部
31 後進ニューラルネットワーク
32 前進ニューラルネットワーク
33 自己連想用ニューラルネットワーク
34 アトラクタ収束検出処理部
35 連想ループ制御処理部
100 連想初期設定処理
110 連想ループ初期設定処理
120 連想入力信号入力設定処理
130 自己連想用追加学習ニューラルネットワーク処理
140 アトラクタ収束検出処理
150 アトラクタ収束判定処理
160 連想ループ回数判定処理
170 連想ループ回数j←j+1設定処理
180 自己連想用追加学習ニューラルネットワーク出力信号入力設定処理
190 リングメモリ用ニューラルネットワーク処理
200 学習入力データ記憶処理
210 連想入力―リングメモリ出力一致検出処理
220 アトラクタ出力ー学習入力データ一致状態判定処理
230 リングメモリ読み出し回数判定処理
240 リングメモリ読み出しカウンタnのn←n+1設定処理
250 スプリアス・アトラクタ識別設定処理
260 アトラクタ識別処理
270 学習アトラクタ識別判定処理
280 連想入力非学習入力データ識別設定処理
290 連想入力識別処理
300 学習入力データ読み出し処理
310 連想入力識別設定処理
400 前進連想初期設定処理
410 連想ループ初期設定処理
420 前進連想入力信号入力設定処理
430 前進追加学習ニューラルネットワーク処理
440 アトラクタ収束検出処理
450 アトラクタ収束判定処理
460 連想ループ回数判定処理
470 連想ループ回数j←j+1設定処理
480 後進ニューラルネットワーク出力信号入力設定処理
490 リングメモリ用ニューラルネットワーク処理
500 学習入力データ記憶処理
510 連想入力―リングメモリ出力一致検出処理
520 アトラクタ出力ー学習入力データ一致状態判定処理
530 リングメモリ読み出し回数判定処理
540 リングメモリ読み出しカウンタnのn←n+1設定処理
550 スプリアス・アトラクタ識別設定処理
560 アトラクタ識別処理
570 学習アトラクタ識別判定処理
580 連想入力非学習入力データ識別設定処理
590 連想入力識別処理
600 学習入力データ読み出し処理
610 後進ニューラルネットワーク処理
620 連想入力識別設定処理
630 連想入力識別設定処理
700 前進連想初期設定処理
710 連想ループ初期設定処理
720 前進連想入力信号入力設定処理
730 前進追加学習ニューラルネットワーク処理
740 アトラクタ検出識別処理
750 学習アトラクタ識別判定処理
1 Additional learning neural network for self-association 2 Attractor convergence detection processing unit 3 Associative loop control processing unit 4 Input changeover switch 5 Neural network for ring memory 6 Attractor identification processing unit 7 Input changeover switch 8 Learning input data storage memory 9 Associative input identification processing unit 10 Input changeover switch 11 Associative input signal terminal 12 Neural network input terminal 13 Neural network output terminal 14 Attractor identification output terminal 15 Ring memory input terminal 16 Learning data output terminal 17 Reverse neural network input terminal 18 Reverse neural network output terminal 19 Reverse associative input terminal 20 Attractor convergence detection output terminal 21 Associative input identification output terminal
22 Attractor detection and identification processing unit
23 attractor convergence detection processing unit 24 associative loop control processing unit 25 forward additional learning neural network 26 attractor detection identification processing unit 27 attractor detection identification output terminal 28 associative loop control processing unit 29 attractor coincidence detection processing unit 31 backward neural network 32 forward neural network 33 Self-associative neural network 34 Attractor convergence detection processing unit 35 Associative loop control processing unit 100 Associative initial setting processing 110 Associative loop initial setting processing 120 Associative input signal input setting processing 130 Self-associative additional learning neural network processing 140 Attractor convergence detection processing 150 attractor convergence determination processing 160 associative loop number determination processing 170 associative loop number j ← j + 1 setting processing 180 additional learning neural network output for self-association Number input setting processing 190 Ring memory neural network processing 200 Learning input data storage processing 210 Associative input-ring memory output coincidence detection processing 220 Attractor output-learning input data coincidence state determination processing 230 Ring memory read count determination processing 240 Ring memory read counter n n ← n + 1 setting processing 250 spurious attractor identification setting processing 260 attractor identification processing 270 learning attractor identification determination processing 280 associative input non-learning input data identification setting processing 290 associative input identification processing 300 learning input data reading processing 310 associative input Identification setting processing 400 Forward association initial setting processing 410 Associative loop initial setting processing 420 Forward association input signal input setting processing 430 Forward additional learning neural network processing 440 Attractor convergence detection processing 4 0 attractor convergence determination processing 460 associative loop count determination processing 470 associative loop count j ← j + 1 setting processing 480 reverse neural network output signal input setting processing 490 ring memory neural network processing 500 learning input data storage processing 510 associative input-ring memory Output match detection processing 520 Attractor output-learning input data match status determination processing 530 Ring memory read count determination processing 540 Ring memory read counter n n ← n + 1 setting processing 550 Spurious attractor identification setting processing 560 Attractor identification processing 570 Learning attractor Identification determination processing 580 Association input non-learning input data identification setting processing 590 Association input identification processing 600 Learning input data read processing 610 Reverse neural network processing 620 Association input identification setting processing 63 0 associative input identification setting process 700 forward associative initial setting process 710 associative loop initial setting process 720 forward associative input signal input setting process 730 forward additional learning neural network process 740 attractor detection identification process 750 learning attractor identification determination process

Claims (12)

自己連想用学習済みニューラルネットワーク手段1と、該自己連想用学習済みニューラルネットワーク手段1の学習入力データからなるリング傾斜配置した学習データを学習したリングメモリ用学習済みニューラルネットワーク手段5と、該自己連想用学習済みニューラルネットワーク手段1に入力された連想入力信号に対するアトラクタ収束状態を検出するアトラクタ収束検出手段2と、該リングメモリ用学習済みニューラルネットワーク手段5に記憶されている該学習入力データを順次読み出し、少なくとも該自己連想用学習済みニューラルネットワーク手段1から出力されたアトラクタに収束したアトラクタ出力信号との一致比較により、スプリアス・アトラクタか学習アトラクタかのアトラクタ識別をするアトラクタ識別手段6とを少なくとも有することを特徴とした自己連想記憶装置。   A learned neural network means 1 for self-association, a learned neural network means 5 for ring memory that has learned learning data arranged in a ring gradient consisting of learning input data of the learned neural network means 1 for self-association, and the self-association Attractor convergence detecting means 2 for detecting an attractor convergence state with respect to an associative input signal input to the learned neural network means 1 and the learning input data stored in the ring memory learned neural network means 5 are sequentially read out. Attractor identifying means 6 for identifying an attractor as a spurious attractor or a learned attractor by at least a coincidence comparison with the attractor output signal converged on the attractor output from the self-associative learned neural network means 1 Autoassociative storage device characterized by having even without. 相互連想用前進学習済みニューラルネットワーク手段25と、該前進学習済みニューラルネットワーク手段25からの入力信号に対する出力信号を該前進学習済みニューラルネットワーク手段25にフィードバック入力すると共にアトラクタ収束状態のアトラクタ出力信号を送出する、該前進学習済みニューラルネットワーク手段25の学習データである学習入力データと教師信号とを逆配置した学習データに対して学習した後進学習済みニューラルネットワーク手段31と、該前進学習済みニューラルネットワーク手段25の該学習入力データをリング傾斜配置した学習データを学習したリングメモリ用学習済みニューラルネットワーク手段5と、該前進学習済みニューラルネットワーク手段25に入力された連想入力信号に対するアトラクタ収束状態を検出するアトラクタ収束検出手段2と、該リングメモリ用学習済みニューラルネットワーク手段5に記憶されている該学習入力データを順次読み出し、少なくとも前記後進学習済みニューラルネットワーク手段31から出力されたアトラクタに収束したアトラクタ出力信号と一致比較することにより、該アトラクタ出力信号の学習アトラクタかスプリアス・アトラクタかのアトラクタ識別をするアトラクタ識別手段6とを少なくとも有することを特徴とした相互連想記憶装置。   A forward-learned neural network means 25 for mutual association and an output signal corresponding to an input signal from the forward-learned neural network means 25 are fed back to the forward-learned neural network means 25 and an attractor output signal in an attractor converged state is transmitted. The backward learned neural network means 31 for learning the learning data obtained by reversing the learning input data and the teacher signal as learning data of the forward learned neural network means 25, and the forward learned neural network means 25 The learned neural network means 5 for the ring memory that has learned the learning data in which the learning input data is arranged in a ring gradient, and the atlas for the associative input signal input to the forward learned neural network means 25 Attractor convergence detecting means 2 for detecting the data convergence state, and the learning input data stored in the learned neural network means 5 for the ring memory are sequentially read out, and the attractor output from at least the backward learned neural network means 31 A mutual associative memory device comprising at least an attractor identifying means 6 for identifying an attractor as a learning attractor or a spurious attractor of the attractor output signal by comparing with an attractor output signal converged to 相互連想用前進学習済みニューラルネットワーク手段25と、該前進学習済みニューラルネットワーク手段25からの入力信号に対する出力信号を該前進学習済みニューラルネットワーク手段25にフィードバック入力すると共にアトラクタ収束状態のアトラクタ出力信号を送出する、該前進追習済みニューラルネットワーク手段25の学習データである学習入力データと教師信号とを逆配置した学習データに対して学習した後進学習済みニューラルネットワーク手段31と、該前進学習済みニューラルネットワーク手段25の該学習入力データをリング傾斜配置した学習データを学習したリングメモリ用学習済みニューラルネットワーク手段5と、該前進学習済みニューラルネットワーク手段25に入力された連想入力信号に対するアトラクタ収束状態を検出し、更に該前進学習済みニューラルネットワーク手段25の出力信号を用いて、該後進学習済みニューラルネットワーク手段31から出力されたアトラクタに収束したアトラクタ出力信号の学習アトラクタかスプリアス・アトラクタかのアトラクタ識別をするアトラクタ検出識別手段26と、該後進学習済みニューラルネットワーク手段31から出力されたアトラクタ出力信号を基に、該リングメモリ用学習済みニューラルネットワーク手段5から順次読み出された該学習入力データと該アトラクタ出力信号との一致比較を少なくとも行ない、該リングメモリ用学習済みニューラルネットワーク手段5からの該学習入力データの読み出しを制御するアトラクタ一致検出手段29とを少なくとも有することを特徴とした相互連想記憶装置。   A forward-learned neural network means 25 for mutual association and an output signal corresponding to an input signal from the forward-learned neural network means 25 are fed back to the forward-learned neural network means 25 and an attractor output signal in an attractor converged state is transmitted. The backward learned neural network means 31 for learning the learning data obtained by reversing the learning input data and the teacher signal, which are learning data of the forward learned neural network means 25, and the forward learned neural network means 25 learned neural network means 5 for ring memory that has learned learning data in which the 25 learning input data are arranged in a ring gradient, and an atlas for the associative input signal input to the forward learned neural network means 25 Whether the attractor learning signal or the spurious attractor of the attractor output signal converged to the attractor output from the backward learned neural network means 31 is detected using the output signal of the forward learned neural network means 25. The learning input sequentially read from the learned neural network means 5 for the ring memory based on the attractor detection identifying means 26 for identifying the attractor and the attractor output signal output from the backward learned neural network means 31 At least an attractor coincidence detecting unit 29 that performs at least a coincidence comparison between the data and the attractor output signal and controls reading of the learned input data from the learned neural network unit 5 for the ring memory. Virtual storage device. 請求項1、2及び請求項3の連想記憶装置に於いて、前記リングメモリ用学習済みニューラルネットワーク手段5からの前記学習入力データと前記連想入力信号との一致比較を少なくとも行ない、該連想入力信号の学習・非学習入力データ識別を行う連想入力識別手段9を有することを特徴とした連想記憶装置。   4. The associative memory device according to claim 1, wherein said learning input data from said learned neural network means for ring memory 5 and said associative input signal are at least compared, and said associative input signal An associative storage device comprising associative input identifying means 9 for identifying learning / non-learning input data. 請求項1、2、3、及び請求項4の連想記憶装置に於いて、前記リングメモリ用学習済みニューラルネットワーク手段5から前記学習入力データを順次読み出し、記憶する学習入力データ記憶手段8を有することを特徴とした連想記憶装置。   5. The associative memory device according to claim 1, further comprising learning input data storage means 8 for sequentially reading out and storing said learning input data from said learned neural network means 5 for ring memory. An associative memory device. 自己連想用学習済みニューラルネットワーク処理130と、該自己連想用学習済みニューラルネットワーク処理130の学習入力データからなるリング傾斜配置した学習データを学習したリングメモリ用学習済みニューラルネットワーク処理190と、該自己連想用学習済みニューラルネットワーク処理130に入力された連想入力信号に対するアトラクタ収束状態を検出するアトラクタ収束検出処理140と、該リングメモリ用学習ニューラルネットワーク処理190に記憶されている該学習入力データを順次読み出し、少なくとも該自己連想用学習済みニューラルネットワーク処理130から出力されたアトラクタに収束したアトラクタ出力信号との一致比較により、学習アトラクタかスプリアス・アトラクタかのアトラクタ識別をするアトラクタ識別処理260とを少なくとも有することを特徴とした自己連想記憶ソフトウェア。   A learned neural network process for self-association 130, a learned neural network process for ring memory 190 that learns learning data arranged in a ring gradient consisting of learning input data of the learned neural network process for self-association 130, and the self-association An attractor convergence detection process 140 for detecting an attractor convergence state with respect to an associative input signal inputted to the learned neural network process 130, and the learning input data stored in the learning neural network process 190 for the ring memory, The attractor is identified as a learning attractor or a spurious attractor by at least comparing with the attractor output signal converged on the attractor output from the self-associative learned neural network processing 130. Auto-associative memory software is characterized by having at least a tractor identification process 260. 相互連想用前進学習済みニューラルネットワーク処理430と、該前進学習済みニューラルネットワーク処理430からの入力信号に対する出力信号を該前進学習済みニューラルネットワーク430にフィードバック入力すると共にアトラクタ収束状態のアトラクタ出力信号を送出する、該前進学習済みニューラルネットワーク処理430の学習データである学習入力データと教師信号とを逆配置した学習データに対して学習した後進学習済みニューラルネットワーク処理610と、該前進学習済みニューラルネットワーク処理430の該学習入力データをリング傾斜配置した学習データを学習したリングメモリ用ニューラルネットワーク処理490と、該前進学習済みニューラルネットワーク処理430に入力された連想入力信号に対するアトラクタ収束状態を検出するアトラクタ収束検出処理440と、該リングメモリ用学習済みニューラルネットワーク処理490に記憶されている該学習入力データを順次読み出し、少なくとも該後進学習済みニューラルネットワーク処理610から出力されたアトラクタに収束したアトラクタ出力信号と一致比較することにより、該アトラクタ出力信号の学習アトラクタかスプリアス・アトラクタかのアトラクタ識別をするアトラクタ識別処理560とを少なくとも有することを特徴とした相互連想記憶ソフトウェア。   A forward-learned neural network process 430 for mutual association and an output signal corresponding to the input signal from the forward-learned neural network process 430 are fed back to the forward-learned neural network 430 and an attractor output signal in an attractor converged state is sent out. The backward learned neural network processing 610 for learning the learning data obtained by reversing the learning input data and the teacher signal as learning data of the forward learned neural network processing 430, and the forward learned neural network processing 430 The neural network processing 490 for ring memory that has learned the learning data in which the learning input data is arranged in a ring inclination, and the associative input signal input to the neural network processing 430 that has been forward-learned Attractor convergence detection processing 440 for detecting a tractor convergence state and the learning input data stored in the ring memory learned neural network processing 490 are sequentially read out, and at least the attractor output from the backward learned neural network processing 610 And an attractor identification process 560 for at least identifying the attractor as a learning attractor or a spurious attractor of the attractor output signal by making a coincidence comparison with the attracted output signal. 相互連想用前進学習済みニューラルネットワーク処理730と、該前進学習学習ニューラルネットワーク処理730からの入力信号に対する出力信号を該前進学習済みニューラルネットワーク処理730にフィードバック入力すると共にアトラクタ収束状態のアトラクタ出力信号を送出する、該前進学習済みニューラルネットワーク処理730の学習データである学習入力データと教師信号とを逆配置した学習データに対して学習した後進学習済みニューラルネットワーク処理610と、該前進学習済みニューラルネットワーク処理730の該学習入力データをリング傾斜配置した学習データを学習したリングメモリ用学習済みニューラルネットワーク処理490と、該前進学習済みニューラルネットワーク処理730に入力された連想入力信号に対するアトラクタ収束状態を検出し、更に該前進学習済みニューラルネットワーク処理730の出力信号を用いて、該後進学習済みニューラルネットワーク処理610から出力されたアトラクタに収束したアトラクタ出力信号の学習アトラクタかスプリアス・アトラクタかのアトラクタ識別をするアトラクタ識別処理740と、該後進学習済みニューラルネットワーク処理610から送出されたアトラクタ出力信号を基に、該リングメモリ用学習済みニューラルネットワーク処理490から順次読み出された該学習入力データと該アトラクタ出力信号との一致検出を少なくとも行ない、該リングメモリ用学習済みニューラルネットワーク処理490からの該学習入力データの読み出しを制御するアトラクタ出力ー学習入力データ一致状態判定処理520とを少なくとも有することを特徴とした相互連想記憶ソフトウェア。   A forward-learned neural network process 730 for mutual association and an output signal corresponding to the input signal from the forward-learning neural network process 730 are fed back to the forward-learned neural network process 730 and an attractor output signal in the attractor convergence state is transmitted. The backward-learned neural network process 610 for learning the learning data obtained by reversing the learning input data and the teacher signal as learning data of the forward-learned neural network process 730, and the forward-learned neural network process 730 The learned neural network processing 490 for learning the ring data in which the learning input data is arranged in a ring gradient, and the associative input input to the forward learned neural network processing 730 An attractor convergence state with respect to the signal, and using the output signal of the forward learned neural network processing 730, the learning attractor or spurious of the attractor output signal converged on the attractor output from the backward learned neural network processing 610 is detected. The learning is sequentially read from the learned neural network processing 490 for the ring memory based on the attractor identification processing 740 for identifying the attractor of the attractor and the attractor output signal sent from the backward learned neural network processing 610. Attractor output-learning input data coincidence state that performs at least coincidence detection between the input data and the attractor output signal and controls reading of the learned input data from the learned neural network processing 490 for the ring memory Mutual Associative Memory software characterized by having at least a determination process 520. 請求項6、7及び請求項8の連想記憶ソフトウェアに於いて、前記リングメモリ用学習済みニューラルネットワーク処理730からの前記学習入力データと前記連想入力信号との一致比較を少なくとも行ない、該連想入力信号の学習・非学習入力データ識別を行う連想入力識別処理590、290を有することを特徴とした連想記憶ソフトウェア。   9. The associative memory software according to claim 6, 7, and 8, wherein at least a comparison between the learning input data from the learned neural network processing 730 for the ring memory and the associative input signal is performed, and the associative input signal is detected. Associative memory software characterized by having associative input identification processing 590 and 290 for identifying learning / non-learning input data. 請求項6、7、8、及び請求項9の連想記憶ソフトウェアに於いて、前記リングメモリ用学習済みニューラルネットワーク処理190、490から前記学習入力データを順次読み出し、記憶する学習入力データ記憶処理200、500とを有することを特徴とした連想記憶ソフトウェア。   A learning input data storage process 200 for sequentially reading out and storing the learning input data from the learned neural network processes 190 and 490 for the ring memory in the associative memory software according to claim 6, 7, 8, and 9. 500 associative memory software. 請求項1から請求項5の前記連想用学習済みニューラルネットワーク手段1、25に於いて、分類カテゴリに対応したプロトタイプとその教師信号とからなる予め準備された初期学習データをニューラルネットワークに学習させた初期学習の後、プロトタイプの近傍テスト入力データとその教師信号とからなる予め準備されたプロトタイプの近傍テストデータを用いてテストし、不正解出力となるプロトタイプの近傍テスト入力データを追加学習入力データとしプロトタイプと共に追加学習を行ない、準備されたプロトタイプの近傍テスト入力データに対して全て正解出力となるまでプロトタイプの近傍テストデータ追加学習処理を繰り返し、得られた重み係数を設定した連想用学習済みニューラルネットワーク手段1、25を用いることを特徴とした連想記憶装置。   In the associative learned neural network means 1 and 25 according to claims 1 to 5, the neural network is made to learn initial learning data prepared in advance comprising a prototype corresponding to a classification category and its teacher signal. After initial learning, testing is performed using prototype neighborhood test data prepared in advance consisting of prototype neighborhood test input data and its teacher signal, and prototype neighborhood test input data resulting in incorrect answer output is used as additional learning input data. Performing additional learning with the prototype, repeating the prototype neighborhood test data additional learning process until all of the prepared prototype neighborhood test input data are correct output, and setting the weighting coefficient obtained associative learned neural network Using means 1 and 25 Features and the content addressable memory. 請求項6から請求項10の前記連想用学習済みニューラルネットワーク処理130、430として、分類カテゴリに対応したプロトタイプとその教師信号とからなる予め準備された初期学習データをニューラルネットワークに学習させた初期学習の後、プロトタイプの近傍テスト入力データとその教師信号とからなる予め準備されたプロトタイプの近傍テストデータを用いてテストし、不正解出力となるプロトタイプの近傍テスト入力データを追加学習入力データとしプロトタイプと共に追加学習を行ない、準備されたプロトタイプの近傍テスト入力データに対して全て正解出力となるまでプロトタイプの近傍テストデータ追加学習処理を繰り返し、得られた重み係数を設定した連想用学習済みニューラルネットワーク処理130、430,730を用いることを特徴とした連想記憶ソフトウェア。
As the associative learned neural network processes 130 and 430 according to claims 6 to 10, initial learning is performed by causing a neural network to learn initial learning data prepared in advance consisting of a prototype corresponding to a classification category and a teacher signal thereof. After that, the prototype neighborhood test input data consisting of the prototype neighborhood test input data and the teacher signal is used to perform the test, and the prototype neighborhood test input data resulting in incorrect answer output is used as additional learning input data together with the prototype. Additional learning is performed, and the prototype neighborhood test data additional learning processing is repeated until all of the prepared prototype neighborhood test input data are output as correct answers, and the associated learned neural network processing 130 in which the obtained weighting factor is set. 430, Associative Memory software characterized by using a 30.
JP2005102707A 2005-03-31 2005-03-31 Associative memory and its software Expired - Fee Related JP4687199B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005102707A JP4687199B2 (en) 2005-03-31 2005-03-31 Associative memory and its software

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005102707A JP4687199B2 (en) 2005-03-31 2005-03-31 Associative memory and its software

Publications (2)

Publication Number Publication Date
JP2006285489A true JP2006285489A (en) 2006-10-19
JP4687199B2 JP4687199B2 (en) 2011-05-25

Family

ID=37407372

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005102707A Expired - Fee Related JP4687199B2 (en) 2005-03-31 2005-03-31 Associative memory and its software

Country Status (1)

Country Link
JP (1) JP4687199B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3944110A1 (en) 2020-07-21 2022-01-26 Fujitsu Limited Learning program, learning device, and learning method
JP2023531412A (en) * 2020-06-16 2023-07-24 イントゥイセル アー・ベー Computer or hardware implemented entity identification method, computer program product and entity identification apparatus
WO2024218836A1 (en) * 2023-04-17 2024-10-24 日本電信電話株式会社 Associative memory device
WO2025013227A1 (en) * 2023-07-11 2025-01-16 日本電信電話株式会社 Associative memory device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05165801A (en) * 1991-12-16 1993-07-02 Toshiba Corp Learning method of neural network
JPH0666852A (en) * 1992-04-22 1994-03-11 Nec Corp Spectrum measuring device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05165801A (en) * 1991-12-16 1993-07-02 Toshiba Corp Learning method of neural network
JPH0666852A (en) * 1992-04-22 1994-03-11 Nec Corp Spectrum measuring device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023531412A (en) * 2020-06-16 2023-07-24 イントゥイセル アー・ベー Computer or hardware implemented entity identification method, computer program product and entity identification apparatus
EP3944110A1 (en) 2020-07-21 2022-01-26 Fujitsu Limited Learning program, learning device, and learning method
WO2024218836A1 (en) * 2023-04-17 2024-10-24 日本電信電話株式会社 Associative memory device
WO2025013227A1 (en) * 2023-07-11 2025-01-16 日本電信電話株式会社 Associative memory device

Also Published As

Publication number Publication date
JP4687199B2 (en) 2011-05-25

Similar Documents

Publication Publication Date Title
US5151969A (en) Self-repairing trellis networks
Sharkey et al. The “test and select” approach to ensemble combination
US11822579B2 (en) Apparatus for functioning as sensor node and data center, sensor network, communication method and program
Phatak et al. Complete and partial fault tolerance of feedforward neural nets
KR101878579B1 (en) Hierarchical neural network device, learning method for determination device, and determination method
Kleyko et al. Modification of holographic graph neuron using sparse distributed representations
JP3328935B2 (en) Parallel multi-valued neural network
CN109886306B (en) Power grid fault diagnosis data cleaning method
JP3675246B2 (en) Neural network means having correct / wrong answer determination function
JP4687199B2 (en) Associative memory and its software
US5493632A (en) Neural network employing a location addressable memory and method for operating the same
Petsche et al. Trellis codes, receptive fields, and fault tolerant, self-repairing neural networks
Huang et al. Functional error correction for reliable neural networks
JPH08249302A (en) Method for actualizing trouble-tolerant determinative finite state automaton in recursive neural network and trouble-tolerant determinative finite state automaton of network
JP3277648B2 (en) Parallel neural network
JP7230324B2 (en) Neural network learning method, computer program and computer device
Lopez et al. Design of multilayer discrete time cellular neural networks for image processing tasks based on genetic algorithms
JP3757722B2 (en) Multi-layer neural network unit optimization method and apparatus
JP4696529B2 (en) Multi-layer neural network device and its software
JP3855580B2 (en) Parallel neural network device
CN115130617B (en) Detection method for continuous increase of self-adaptive satellite data mode
JP3855665B2 (en) Parallel neural network processing system with output state judgment function
JP3329202B2 (en) Neural network learning method
Bandyopadhyay et al. A novel neural hetero-associative memory model for pattern recognition
Sugawara et al. Fault tolerant multi-layer neural networks with GA training

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070919

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100720

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110118

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110131

R150 Certificate of patent or registration of utility model

Ref document number: 4687199

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140225

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees