JPH087789B2 - パターン連想記憶方法および装置 - Google Patents
パターン連想記憶方法および装置Info
- Publication number
- JPH087789B2 JPH087789B2 JP1205462A JP20546289A JPH087789B2 JP H087789 B2 JPH087789 B2 JP H087789B2 JP 1205462 A JP1205462 A JP 1205462A JP 20546289 A JP20546289 A JP 20546289A JP H087789 B2 JPH087789 B2 JP H087789B2
- Authority
- JP
- Japan
- Prior art keywords
- pattern
- output
- input
- element group
- signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/192—Recognition using electronic means using simultaneous comparisons or correlations of the image signals with a plurality of references
- G06V30/194—References adjustable by an adaptive method, e.g. learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0499—Feedforward networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Description
【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、音声や画像のようなパターン情報の識別処
理において基本パターンを記憶し、記憶したパターンの
中から識別の対象となるパターンに最も類似するパター
ンを想起するパターン連想記憶システムに関する。さら
には、曖昧さの入ったパターン情報あるいは曖昧さの入
る状況において作成されたパターン情報の想起に好適な
パターン連想記憶システムに関する。
理において基本パターンを記憶し、記憶したパターンの
中から識別の対象となるパターンに最も類似するパター
ンを想起するパターン連想記憶システムに関する。さら
には、曖昧さの入ったパターン情報あるいは曖昧さの入
る状況において作成されたパターン情報の想起に好適な
パターン連想記憶システムに関する。
従来のこの種のパターン連想記憶方法としては、コホ
ーネンの一連の連想記憶方法が知られている。さらに中
野や甘利等の研究により次のようなパターン連想記憶方
法が知られている。
ーネンの一連の連想記憶方法が知られている。さらに中
野や甘利等の研究により次のようなパターン連想記憶方
法が知られている。
最も基本的なパターン連想記憶方法として相関型連想
記憶方法について説明する。この連想記憶方法の連想機
能の基本的特徴は識別の対象となるパターン信号の入力
から識別結果のパターン信号の出力までの信号処理プロ
セスにおいて、信号を伝達する結線の伝達効率を、予め
相関学習により調整しておくことにある。
記憶方法について説明する。この連想記憶方法の連想機
能の基本的特徴は識別の対象となるパターン信号の入力
から識別結果のパターン信号の出力までの信号処理プロ
セスにおいて、信号を伝達する結線の伝達効率を、予め
相関学習により調整しておくことにある。
このような相関型記憶方法では、予め基本のパターン
として学習し記憶できるパターンの種類や数は限られて
おり、たとえば、識別対象のパターン入力の次元がnで
あれば、学習し、記憶できるパターンは線型独立なn個
以内のパターンに限られる。さらに、識別対象の入力パ
ターンに不完全さがあるとき、たとえば、入力信号の一
部が欠落したとき、またはエラー信号が入力信号に混入
したときは連想記憶装置内でクロストークエラーを引き
起こすことが知られている。
として学習し記憶できるパターンの種類や数は限られて
おり、たとえば、識別対象のパターン入力の次元がnで
あれば、学習し、記憶できるパターンは線型独立なn個
以内のパターンに限られる。さらに、識別対象の入力パ
ターンに不完全さがあるとき、たとえば、入力信号の一
部が欠落したとき、またはエラー信号が入力信号に混入
したときは連想記憶装置内でクロストークエラーを引き
起こすことが知られている。
他の基本的な連想記憶方法としては直交学習型記憶方
法が知られている。直交学習型連想記憶方法は、入力パ
ターンの直交化により上記の相関型連想記憶方法の欠点
を改良した方法である。この方法では、一次独立なn個
以内のパターンを記憶し想起できるように改善されてい
る。しかし、入力パターンの不完全さが大きくなるほ
ど、クロストークエラーも大きくなる。
法が知られている。直交学習型連想記憶方法は、入力パ
ターンの直交化により上記の相関型連想記憶方法の欠点
を改良した方法である。この方法では、一次独立なn個
以内のパターンを記憶し想起できるように改善されてい
る。しかし、入力パターンの不完全さが大きくなるほ
ど、クロストークエラーも大きくなる。
以上に述べたように、相関型記憶方法および直交学習
型の記憶方法のいずれも、入力パターンの不完全度が大
きくなると、自己連想機能が働かなくなる。換言する
と、ノイズの除去能力に限界があるので、入力パターン
の不完全さが小さい時だけ完全なパターン連想記憶を行
うことができる。上記方法を適用した装置では想起結果
として出力された出力信号を再び入力信号としてフィー
ドバックするフィードバックループを有する装置も知ら
れているがフィードバック処理がかならずしもノイズの
除去に有効とは限らなかった。
型の記憶方法のいずれも、入力パターンの不完全度が大
きくなると、自己連想機能が働かなくなる。換言する
と、ノイズの除去能力に限界があるので、入力パターン
の不完全さが小さい時だけ完全なパターン連想記憶を行
うことができる。上記方法を適用した装置では想起結果
として出力された出力信号を再び入力信号としてフィー
ドバックするフィードバックループを有する装置も知ら
れているがフィードバック処理がかならずしもノイズの
除去に有効とは限らなかった。
この他に、以上の方法とは構成や原理の異なる方法と
して、ホップフィールドやボルツマン型の連想記憶方法
が知られているが、確率的動作を基盤としているために
連想記憶のための計算量が厖大であったり、学習したパ
ターン以外のパターンに想起結果が収束する可能性があ
った。このため、実用的なシステムを構成することが困
難であるという問題がある。
して、ホップフィールドやボルツマン型の連想記憶方法
が知られているが、確率的動作を基盤としているために
連想記憶のための計算量が厖大であったり、学習したパ
ターン以外のパターンに想起結果が収束する可能性があ
った。このため、実用的なシステムを構成することが困
難であるという問題がある。
以上、述べたように従来のパターン連想記憶方法で
は、パターンの学習/記憶能力が貧弱で類似学習パター
ンを弁別して学習することが難しい。特に一つの学習パ
ターンにもう一つのパターンが完全に含まれてしまうよ
うな全体−部分パターンなどの難しい学習ができない。
さらに、従来のパターン連想記憶方法は連想能力も貧弱
であり、出力活動の小さい入力(例えば、ゼロ入力)が
扱えない。入力パターンの不完全さすなわち入力の一部
の欠落、またはエラー混入入力があるとき、従来のパタ
ーン連想記憶装置はクロストークエラーを引き起こす。
その結果、従来のパターン連想記憶装置は学習パターン
以外のパターンを連想するので、装置の連想機能が正常
に働かなくなるという重大な問題点があった。
は、パターンの学習/記憶能力が貧弱で類似学習パター
ンを弁別して学習することが難しい。特に一つの学習パ
ターンにもう一つのパターンが完全に含まれてしまうよ
うな全体−部分パターンなどの難しい学習ができない。
さらに、従来のパターン連想記憶方法は連想能力も貧弱
であり、出力活動の小さい入力(例えば、ゼロ入力)が
扱えない。入力パターンの不完全さすなわち入力の一部
の欠落、またはエラー混入入力があるとき、従来のパタ
ーン連想記憶装置はクロストークエラーを引き起こす。
その結果、従来のパターン連想記憶装置は学習パターン
以外のパターンを連想するので、装置の連想機能が正常
に働かなくなるという重大な問題点があった。
ここで、従来の最も基本的なパターン連想記憶方式で
ある相関型の連想記憶方法により得られた連想結果の一
例を第13図に示す。
ある相関型の連想記憶方法により得られた連想結果の一
例を第13図に示す。
図においてx1,x2は入力素子を表わし、y1,y2は出力素
子を表わしている。2つの活動値の入力信号のそれぞれ
が“0",“1"の2値のいずれかであるとすると、入力パ
ターン(x1,x2)の種類は(0,0),(1,0),(0,1),
(1,1)の4種類となる。この4つの入力パターンのう
ち、相関学習で最大限学習できる入力パターンの組み合
せは独立な2つの入力パターン例えば、{(1,0),
(0,1)}だけである。この2つの入力パターンを相関
型の記憶装置に相関学習させた後、連想の対象として入
力する信号の入力値と、出力値の変化を第13図は示して
いる。また学習を行っていないパターン(0,0)や(1,
1)の方向へ入力信号が変化することも第13図は示して
いる。すなわち、相関型の連想記憶方法では連想対象の
入力パターンのうちの一部だけが学習パターンに正しく
変換出力され、他の部分は学習パターンとは無関係なパ
ターンに変換出力される。
子を表わしている。2つの活動値の入力信号のそれぞれ
が“0",“1"の2値のいずれかであるとすると、入力パ
ターン(x1,x2)の種類は(0,0),(1,0),(0,1),
(1,1)の4種類となる。この4つの入力パターンのう
ち、相関学習で最大限学習できる入力パターンの組み合
せは独立な2つの入力パターン例えば、{(1,0),
(0,1)}だけである。この2つの入力パターンを相関
型の記憶装置に相関学習させた後、連想の対象として入
力する信号の入力値と、出力値の変化を第13図は示して
いる。また学習を行っていないパターン(0,0)や(1,
1)の方向へ入力信号が変化することも第13図は示して
いる。すなわち、相関型の連想記憶方法では連想対象の
入力パターンのうちの一部だけが学習パターンに正しく
変換出力され、他の部分は学習パターンとは無関係なパ
ターンに変換出力される。
このことから、相関型の連想記憶方法は不完全な入力
から完全な連想を行うことが非常に困難であることが明
らかである。
から完全な連想を行うことが非常に困難であることが明
らかである。
そこで、本発明の第1目的は従来よりも多数のパター
ンを学習することが可能でかつ、連想の対象の入力パタ
ーンが不完全であっても学習記憶したパターンに変換す
ることができるパターン連想記憶方法を提供することに
ある。
ンを学習することが可能でかつ、連想の対象の入力パタ
ーンが不完全であっても学習記憶したパターンに変換す
ることができるパターン連想記憶方法を提供することに
ある。
本発明の第2目的は操作者の操作労力を低減すること
ができるパターン連想記憶装置を提供することにある。
ができるパターン連想記憶装置を提供することにある。
このような目的を達成するために、本発明の第1形態
は、少なくとも情報信号を入力する一団の入力素子群、
当該入力素子群と同じ個数で、かつ、それぞれが予め定
められた信号レベル変換特性を有する一団の出力素子群
および前記入力素子群と前記出力素子群との間をニュー
ラルネットワークの形態で結合した複数の結合線を備
え、前記伝達効率を可変設定する誤差訂正回路を有する
パターン連想記憶装置のパターン連想記憶方法におい
て、学習を行なうときには、前記入力素子群に学習目標
のパターン信号を入力し、前記出力素子群の出力誤差を
前記入力素子群に対してバックプロパゲーションさせて
学習を行うバックプロパゲーション学習方法を用いて、
当該入力された複数のパターン信号と前記出力素子群か
ら出力される複数の出力信号とがほぼ同一レベルとなる
ように前記複数の出力信号の前記入力素子群へのフィー
ドバックを行なわず前記複数の結合線の各伝達効率の値
を可変設定することにより、前記複数のパターン信号が
示すパターンを学習結果として前記誤差訂正回路内に記
憶し、想起を行うときには、学習で設定された伝達効率
を用い、想起の基本となるパターン信号を前記入力素子
群に入力した後、前記出力素子群から出力される出力素
子群を前記入力素子群にフィードバック入力し、収束状
態となった前記出力信号を、前記想起の基本となるパタ
ーン信号に対する想起結果とすることを特徴とする。
は、少なくとも情報信号を入力する一団の入力素子群、
当該入力素子群と同じ個数で、かつ、それぞれが予め定
められた信号レベル変換特性を有する一団の出力素子群
および前記入力素子群と前記出力素子群との間をニュー
ラルネットワークの形態で結合した複数の結合線を備
え、前記伝達効率を可変設定する誤差訂正回路を有する
パターン連想記憶装置のパターン連想記憶方法におい
て、学習を行なうときには、前記入力素子群に学習目標
のパターン信号を入力し、前記出力素子群の出力誤差を
前記入力素子群に対してバックプロパゲーションさせて
学習を行うバックプロパゲーション学習方法を用いて、
当該入力された複数のパターン信号と前記出力素子群か
ら出力される複数の出力信号とがほぼ同一レベルとなる
ように前記複数の出力信号の前記入力素子群へのフィー
ドバックを行なわず前記複数の結合線の各伝達効率の値
を可変設定することにより、前記複数のパターン信号が
示すパターンを学習結果として前記誤差訂正回路内に記
憶し、想起を行うときには、学習で設定された伝達効率
を用い、想起の基本となるパターン信号を前記入力素子
群に入力した後、前記出力素子群から出力される出力素
子群を前記入力素子群にフィードバック入力し、収束状
態となった前記出力信号を、前記想起の基本となるパタ
ーン信号に対する想起結果とすることを特徴とする。
本発明の第2形態は、前記伝達効率の値と共に前記出
力素子群の各信号レベル変換特性のバイアスの値を可変
設定することを特徴とする。
力素子群の各信号レベル変換特性のバイアスの値を可変
設定することを特徴とする。
本発明の第3形態は、想起の基本となるパターン信号
を入力する入力素子群、当該入力素子群と同じ個数で、
かつ、それぞれが予め定められた信号レベル変換特性を
有する一団の出力素子群および前記入力素子群と前記出
力素子群との間をニューラルネットワークの形態で結合
した複数の結合線を備え、前記複数の結合線の伝達効率
の値により連想結果として用いる少なくとも1組以上の
パターン信号を予め記憶し、前記想起の基本となるパタ
ーン信号のレベル値を前記1組以上のパターン信号の中
の最も類似するパターン信号のレベルに近付けるための
誤差訂正手段と、該誤差訂正手段の前記出力素子群から
出力される複数の出力信号を前記入力素子群にフィード
バック入力するための信号線と、学習記憶モード時に
は、前記誤差訂正手段の前記出力素子群から出力される
複数の出力信号のフィードバック入力を阻止し、想起モ
ード時には、当該フィードバック入力を行なうように前
記信号線を切換接続する信号線切換手段と、を具えたこ
とを特徴とする。
を入力する入力素子群、当該入力素子群と同じ個数で、
かつ、それぞれが予め定められた信号レベル変換特性を
有する一団の出力素子群および前記入力素子群と前記出
力素子群との間をニューラルネットワークの形態で結合
した複数の結合線を備え、前記複数の結合線の伝達効率
の値により連想結果として用いる少なくとも1組以上の
パターン信号を予め記憶し、前記想起の基本となるパタ
ーン信号のレベル値を前記1組以上のパターン信号の中
の最も類似するパターン信号のレベルに近付けるための
誤差訂正手段と、該誤差訂正手段の前記出力素子群から
出力される複数の出力信号を前記入力素子群にフィード
バック入力するための信号線と、学習記憶モード時に
は、前記誤差訂正手段の前記出力素子群から出力される
複数の出力信号のフィードバック入力を阻止し、想起モ
ード時には、当該フィードバック入力を行なうように前
記信号線を切換接続する信号線切換手段と、を具えたこ
とを特徴とする。
本発明の第4形態は、前記誤差訂正手段は前記入力素
子群と前記出力素子群との間に予め定められた信号レベ
ル変換特性を有する少くとも1以上の中間素子群を備
え、前記入力素子群、前記中間素子群および出力素子群
はニューラルネットワークの形態で結合されることを特
徴とする。
子群と前記出力素子群との間に予め定められた信号レベ
ル変換特性を有する少くとも1以上の中間素子群を備
え、前記入力素子群、前記中間素子群および出力素子群
はニューラルネットワークの形態で結合されることを特
徴とする。
本発明の第5形態は、前記学習記憶モードにおいて、
前記入力素子群に入力された前記想起の基本となるパタ
ーン信号のレベル値と前記出力素子群から出力されるパ
ターンのレベル値とがほぼ同一となるように、少くとも
前記複数の結合線の伝達効率の値を記憶条件として設定
する記憶条件設定手段を具えたことを特徴とする。
前記入力素子群に入力された前記想起の基本となるパタ
ーン信号のレベル値と前記出力素子群から出力されるパ
ターンのレベル値とがほぼ同一となるように、少くとも
前記複数の結合線の伝達効率の値を記憶条件として設定
する記憶条件設定手段を具えたことを特徴とする。
本発明の第6形態は、前記記憶条件設定手段はバック
プロパゲーション方法により、前記伝達効率の修正値を
定めることを特徴とする。
プロパゲーション方法により、前記伝達効率の修正値を
定めることを特徴とする。
本発明の第7形態は、前記誤差訂正手段の前記出力素
子群の出力信号のレベル値が変化しているか否かを判定
する判定手段と、該判定手段の判定結果が否定判定とな
ったときに、想起処理の終了を表示する表示手段とを具
えたことを特徴とする。
子群の出力信号のレベル値が変化しているか否かを判定
する判定手段と、該判定手段の判定結果が否定判定とな
ったときに、想起処理の終了を表示する表示手段とを具
えたことを特徴とする。
[作用] 本発明の第1形態、第3形態では想起時にのみ出力素
子群の出力信号を入力素子群へフィードバック入力す
る。これにより、フィードバック系のない従来の連想記
憶装置に比べると、想起精度が高まる。また、学習およ
び想起モード共にフィードバック処理する従来例に比べ
ると、想起精度を落とすことなく、学習処理時間が短縮
される。
子群の出力信号を入力素子群へフィードバック入力す
る。これにより、フィードバック系のない従来の連想記
憶装置に比べると、想起精度が高まる。また、学習およ
び想起モード共にフィードバック処理する従来例に比べ
ると、想起精度を落とすことなく、学習処理時間が短縮
される。
本発明の第2形態では、第1形態に加えて、出力素子
群の信号レベル変換特性のバイアスをも可変設定するよ
うにしたので、パターン信号を記憶するときに、入力信
号と出力信号のレベル値を完全に一致させることがで
き、以て、誤差訂正回路のパターン信号の記憶精度を高
めることができる。
群の信号レベル変換特性のバイアスをも可変設定するよ
うにしたので、パターン信号を記憶するときに、入力信
号と出力信号のレベル値を完全に一致させることがで
き、以て、誤差訂正回路のパターン信号の記憶精度を高
めることができる。
本発明の第4形態では、さらに中間素子を有している
ので、想起精度が高まる。
ので、想起精度が高まる。
本発明の第5形態では、パターン信号の学習結果が結
合線の伝達効率の形態で記憶されるので、想起時にはこ
の伝達効率を用いて、直ちに連想処理を行なうことがで
きる。
合線の伝達効率の形態で記憶されるので、想起時にはこ
の伝達効率を用いて、直ちに連想処理を行なうことがで
きる。
本発明の第6形態では、バックプロパゲーション方法
により伝達効率の修正値を定めるので、一定の修正値で
伝達効率の値を修正するよりも、伝達効率を設定するま
での計算処理時間を速くすることができる。
により伝達効率の修正値を定めるので、一定の修正値で
伝達効率の値を修正するよりも、伝達効率を設定するま
での計算処理時間を速くすることができる。
本発明の第7形態では、誤差訂正回路の出力信号のレ
ベル値が収束したときは、そのレベル値が変化しないこ
とに着目し、判定手段によりレベル値を監視して、表示
手段により想起処理の終了を表示するようにしたので、
操作者自身が出力信号のレベル値を監視する必要はな
い。
ベル値が収束したときは、そのレベル値が変化しないこ
とに着目し、判定手段によりレベル値を監視して、表示
手段により想起処理の終了を表示するようにしたので、
操作者自身が出力信号のレベル値を監視する必要はな
い。
第1図は本発明第1実施例の基本的な回路構成を示
す。第1図において、符号Xi(i=1,2,…m)は入力層
Xを構成する一団の素子群を意味する。符号Yj(j=1,
2,…m′)は、出力層Yを構成する一団の素子群を意味
する。同様に符号Mk(k=1,2,…n),Np(p=1,2,…
n′)は入力層Xと出力層Yの間に存在する中間層M,N
をそれぞれ構成する素子群である。入力層Xと中間層M,
Nとの間および入力層Xと出力層Yとの間は結合線群に
より結合される。中間層Mと中間層Nとの間、中間層M
および中間層Mと出力層Yとの間は結合線群により結合
される。中間層Nと出力層Yとの間も結合線群により結
合される。このようにして前層の全ての素子と後層の全
ての素子との間はニューラルネットワークの形態で複数
の結合線群で結合される。また、各素子はバイアス活動
値θを持っている。さらに、出力層Yから入力層Xへの
フィードバック結線が設けられている。入力素子Xiへの
実際の入力信号は、外部入力信号Iiまたは出力フィード
バック信号Yiのいずれかの信号となり、入力信号の選択
をスイッチ素子Siより行う。
す。第1図において、符号Xi(i=1,2,…m)は入力層
Xを構成する一団の素子群を意味する。符号Yj(j=1,
2,…m′)は、出力層Yを構成する一団の素子群を意味
する。同様に符号Mk(k=1,2,…n),Np(p=1,2,…
n′)は入力層Xと出力層Yの間に存在する中間層M,N
をそれぞれ構成する素子群である。入力層Xと中間層M,
Nとの間および入力層Xと出力層Yとの間は結合線群に
より結合される。中間層Mと中間層Nとの間、中間層M
および中間層Mと出力層Yとの間は結合線群により結合
される。中間層Nと出力層Yとの間も結合線群により結
合される。このようにして前層の全ての素子と後層の全
ての素子との間はニューラルネットワークの形態で複数
の結合線群で結合される。また、各素子はバイアス活動
値θを持っている。さらに、出力層Yから入力層Xへの
フィードバック結線が設けられている。入力素子Xiへの
実際の入力信号は、外部入力信号Iiまたは出力フィード
バック信号Yiのいずれかの信号となり、入力信号の選択
をスイッチ素子Siより行う。
各素子の基本的動作を次に説明する。いま素子AがK
個の入力素子Bi(i=1,2,…k)から入力活動biを受け
るものとする。入力素子Biと素子Aとの結合の伝達効率
がwiであり、素子Aのバイアスがθであったとすると、
その素子Aの出力活動度aは次式で決められる。
個の入力素子Bi(i=1,2,…k)から入力活動biを受け
るものとする。入力素子Biと素子Aとの結合の伝達効率
がwiであり、素子Aのバイアスがθであったとすると、
その素子Aの出力活動度aは次式で決められる。
ここで、fは出力関数と呼ばれ、通常シグモイド関数
やロジスティック関数が使われる。複数の信号で構成さ
れる1つの入力パターンが与えられると、入力層から出
力層に向って各素子により上式の出力活動度の計算が行
われ、最終的に1ステップの出力パターンが出力層から
出力される。なお、入力パターンを学習記憶するときに
伝達効率wiやバイアスθの値は、入力層に与えられた学
習対象のパターンと同じパターンを出力層に出すよう
に、バックプロパゲーションと呼ばれる学習方法あるい
はそれと同等な学習方法により決定される。
やロジスティック関数が使われる。複数の信号で構成さ
れる1つの入力パターンが与えられると、入力層から出
力層に向って各素子により上式の出力活動度の計算が行
われ、最終的に1ステップの出力パターンが出力層から
出力される。なお、入力パターンを学習記憶するときに
伝達効率wiやバイアスθの値は、入力層に与えられた学
習対象のパターンと同じパターンを出力層に出すよう
に、バックプロパゲーションと呼ばれる学習方法あるい
はそれと同等な学習方法により決定される。
バックプロパゲーション学習法は、甘利により提唱さ
れ、ルウメルハルト(Rumelhart)により最近再発見さ
れた層状の多層学習回路の学習法である。以下にバック
プロパゲーション学習法の概略を説明する。
れ、ルウメルハルト(Rumelhart)により最近再発見さ
れた層状の多層学習回路の学習法である。以下にバック
プロパゲーション学習法の概略を説明する。
いま、学習対象の入力パターンPIが入力層Xに与えら
れ、素子の活動により各層の活動度が次々に計算され、
出力層Yの出力素子Yj(j=1,2,…,m′)の出力値が計
算されていると仮定する。また、学習させたい学習目標
出力パターンをPO(POj(j=1,2,…,m′))とする。
れ、素子の活動により各層の活動度が次々に計算され、
出力層Yの出力素子Yj(j=1,2,…,m′)の出力値が計
算されていると仮定する。また、学習させたい学習目標
出力パターンをPO(POj(j=1,2,…,m′))とする。
バックプロパゲーション学習では、出力パターンYを
学習目標POに近づけるために、2つのパターンの各要素
についての最小自乗誤差を0に近づける。このために、
次のように結合の伝達効率の変更を行う。
学習目標POに近づけるために、2つのパターンの各要素
についての最小自乗誤差を0に近づける。このために、
次のように結合の伝達効率の変更を行う。
先ほど述べた素子Aが出力素子Yjで、その出力活動度
がyi,学習目標出力がpojであったとする。結合の修正
量ΔWiは次式で決められる。
がyi,学習目標出力がpojであったとする。結合の修正
量ΔWiは次式で決められる。
ΔWi=−ε×dj×bi dj=(yj−poj)×yj×(1−yj) ここで、djは誤差の評価量である。また、εは1回の
修正の大きさを決めるパラメータで、小さな正の定数で
ある。bjは、伝達効率wiの結合線と結合した前層素子の
活動度である。
修正の大きさを決めるパラメータで、小さな正の定数で
ある。bjは、伝達効率wiの結合線と結合した前層素子の
活動度である。
バイアス値θの修正もWiの修正とまったく同様であ
り、仮想的な入力bの大きさが1の場合に相当する。
り、仮想的な入力bの大きさが1の場合に相当する。
Δθ=−ε×dj dj=(yj−poj)×yj×(1−yj) 中間層M,Nの素子(Aとする)についても、既に求め
た後層の誤差dkを後ろから前に伝搬することにより、結
合の修正量ΔWi,Δθを上式と同様に下記の式により計
算できる。
た後層の誤差dkを後ろから前に伝搬することにより、結
合の修正量ΔWi,Δθを上式と同様に下記の式により計
算できる。
ΔWi=−ε×d×bi Δθ=−ε×d d=(ΣWk×dk)×a×(1−a) dを求める式の中で、Σは、素子Aが結合している後
層の素子の誤差dkとそこへの結合の伝達効率wkとの積を
すべて加算することを表わす。
層の素子の誤差dkとそこへの結合の伝達効率wkとの積を
すべて加算することを表わす。
学習記憶モードでは学習記憶させるべきパターンにつ
いて後層から前層に向って順に伝達効率を修正すること
により上記のバックプロパゲーションの学習をさせる入
力パターンの想起モードではこの学習の結果得られた結
合の伝達効率とバイアスが各素子毎に設定される。
いて後層から前層に向って順に伝達効率を修正すること
により上記のバックプロパゲーションの学習をさせる入
力パターンの想起モードではこの学習の結果得られた結
合の伝達効率とバイアスが各素子毎に設定される。
想起モードでは、不完全入力を受けて出力層の出力値
yjを計算してから、出力値yiを入力値xiにフィードバッ
クした後、上述の出力活動の計算を繰り返す。バックプ
ロパゲーションに基づく誤差訂正学習アルゴリズムによ
り入力パターンから学習パターンを弁別するように誤差
訂正回路を調整および構成してあるので、フィードバッ
クループにより入力されるパターンが誤差訂正回路を通
過する度に入力パターンは弁別され、出力されるパター
ンは上述の学習記憶モードで記憶した学習パターンの1
つへ収束して行く。
yjを計算してから、出力値yiを入力値xiにフィードバッ
クした後、上述の出力活動の計算を繰り返す。バックプ
ロパゲーションに基づく誤差訂正学習アルゴリズムによ
り入力パターンから学習パターンを弁別するように誤差
訂正回路を調整および構成してあるので、フィードバッ
クループにより入力されるパターンが誤差訂正回路を通
過する度に入力パターンは弁別され、出力されるパター
ンは上述の学習記憶モードで記憶した学習パターンの1
つへ収束して行く。
つぎに、2入力の2層でパターン連想記憶を行う回路
の構成を第2図に示す。この例では、入力層,出力層の
素子の数がおのおの2個で中間層は省いている。
の構成を第2図に示す。この例では、入力層,出力層の
素子の数がおのおの2個で中間層は省いている。
図中、符号X1,X2は入力素子を表わし、本例では端子
が用いられる。符号Y1,Y2は出力素子を表わし、後述の
出力活動を計算する演算器が用いられる。符号I1,I2は
入力信号、符号S1,S2は出力からのフィードバックと入
力信号を切り替えるスイッチを表わしている。入力素子
X1,X2と出力素子Y1,Y2の間はニューラルネットワークの
形態で結合線14,15,16,17により接続される。結合線の
それぞれには所定の伝達効率を有する可変抵抗器14,15,
16,17が設けられている。可変抵抗器14,15,16,17の伝達
効率はボリューム21,22,23,24の抵抗値の調整により決
定される。なお、伝達効率は上流側から下流側に電流が
流れるときは正の値、逆の場合を負の値とする。符号20
はモードスイッチであり、切換えスイッチS1,S2の信号
切換えを指示する。
が用いられる。符号Y1,Y2は出力素子を表わし、後述の
出力活動を計算する演算器が用いられる。符号I1,I2は
入力信号、符号S1,S2は出力からのフィードバックと入
力信号を切り替えるスイッチを表わしている。入力素子
X1,X2と出力素子Y1,Y2の間はニューラルネットワークの
形態で結合線14,15,16,17により接続される。結合線の
それぞれには所定の伝達効率を有する可変抵抗器14,15,
16,17が設けられている。可変抵抗器14,15,16,17の伝達
効率はボリューム21,22,23,24の抵抗値の調整により決
定される。なお、伝達効率は上流側から下流側に電流が
流れるときは正の値、逆の場合を負の値とする。符号20
はモードスイッチであり、切換えスイッチS1,S2の信号
切換えを指示する。
符号25,26は入力信号のレベル検出、たとえば、電圧
を測定する計測器である。符号27,28は出力信号のレベ
ル検出を行う計測器である。オペレータは、計測器25,2
6,27,28の計測値を比較することにより、入力パターン
と出力パターンが一致しているか否かの判定および出力
パターンが収束しているかの判定を行う。
を測定する計測器である。符号27,28は出力信号のレベ
ル検出を行う計測器である。オペレータは、計測器25,2
6,27,28の計測値を比較することにより、入力パターン
と出力パターンが一致しているか否かの判定および出力
パターンが収束しているかの判定を行う。
入力信号が“0",“1"の2値であるとすると、記憶可
能な入力パターン(x1,x2)は(0,0),(1,0),(0,
1),(1,1)の4種類ある。ここで行いたい連想学習
は、4つの入力パターンをそれぞれ入力したときに、そ
れぞれの入力パターンと同じ出力パターンを得ることで
あるので、この4種類のパターンを順次、切り換えスイ
ッチS1,S2を介して入力素子X1,X2に入力し、それぞれの
入力パターンと対応の出力パターンが同じとなるように
ボリューム21,22,23,24により結合線の伝達効率を変化
させ、バックプロパゲーション法で入力パターンを学習
記憶させる。第2図中に4つの学習パターン{(0,
0),(1,0),(0,1),(1,1)}を学習した後の結合
の伝達効率と各素子のバイアス値の一例が示されてい
る。上記学習パターンは、線形独立でも、一次独立でな
くてもよいので、従って今までのパターン連想記憶方式
では学習および記憶すらできなかったパターンを本発明
では学習記憶できることに注意されたい。
能な入力パターン(x1,x2)は(0,0),(1,0),(0,
1),(1,1)の4種類ある。ここで行いたい連想学習
は、4つの入力パターンをそれぞれ入力したときに、そ
れぞれの入力パターンと同じ出力パターンを得ることで
あるので、この4種類のパターンを順次、切り換えスイ
ッチS1,S2を介して入力素子X1,X2に入力し、それぞれの
入力パターンと対応の出力パターンが同じとなるように
ボリューム21,22,23,24により結合線の伝達効率を変化
させ、バックプロパゲーション法で入力パターンを学習
記憶させる。第2図中に4つの学習パターン{(0,
0),(1,0),(0,1),(1,1)}を学習した後の結合
の伝達効率と各素子のバイアス値の一例が示されてい
る。上記学習パターンは、線形独立でも、一次独立でな
くてもよいので、従って今までのパターン連想記憶方式
では学習および記憶すらできなかったパターンを本発明
では学習記憶できることに注意されたい。
ここで、第3図(第4図,第5図および第13図でも同
様)での図の読み方を説明する。入力がx1とx2の2次元
であり、入力x1および入力x2のそれぞれが取りうる値が
“0"から“1"までの値とすると、存在可能な全ての入力
は第3図に示すような状態空間として表現できる。同様
に存在可能なすべての出力も第3図に示すように重ね書
きすることができる。第3図において入力状態空間を0.
05間隔のメッシュで入力値を示し、入力層に入力信号を
受けた回路が、出力層に出す出力の値を□記号で示して
いる。また、入力信号の入力値が出力状態空間のどの値
へ移動するかも第3図に示されている。出力(y1,y2)
が入力(x1,x2)にフィードバックされる状態では出力
(y1,y2)のレベル値が次回の入力(x1,x2)の入力値と
なり、上述の入力値から出力値への移動が繰り返され、
出力値は特定の値に収束する。したがって第3図により
第2図の誤差訂正回路50の収束等の現象を視覚的にみる
ことができる。
様)での図の読み方を説明する。入力がx1とx2の2次元
であり、入力x1および入力x2のそれぞれが取りうる値が
“0"から“1"までの値とすると、存在可能な全ての入力
は第3図に示すような状態空間として表現できる。同様
に存在可能なすべての出力も第3図に示すように重ね書
きすることができる。第3図において入力状態空間を0.
05間隔のメッシュで入力値を示し、入力層に入力信号を
受けた回路が、出力層に出す出力の値を□記号で示して
いる。また、入力信号の入力値が出力状態空間のどの値
へ移動するかも第3図に示されている。出力(y1,y2)
が入力(x1,x2)にフィードバックされる状態では出力
(y1,y2)のレベル値が次回の入力(x1,x2)の入力値と
なり、上述の入力値から出力値への移動が繰り返され、
出力値は特定の値に収束する。したがって第3図により
第2図の誤差訂正回路50の収束等の現象を視覚的にみる
ことができる。
次に、第2図に示す誤差訂正回路50の入力信号の誤差
訂正の過程を説明する。入力の初期値(X1,X2)が例え
ば(0.4,0.6)といった学習パターンにない中途半端な
パターンとして誤差訂正回路50に入力したとする。この
入力値を上記回路が計算すると、出力値は第3図に示さ
れているように(0.345,0.701)となる。想起モードで
あるので、フィードバック信号を入力素子X1,X2に入力
するようにモードスイッチ20を切り替える。出力Y1を入
力X1に、出力Y2を入力X2にフィードバックすると、出力
パターンは(0.257,0.832)→(0.150,0.929)→(0.07
4,0.964)と変化し、順次(0,1)の学習パターンに近づ
いて行く。ただし、学習も完全でないので、完全な(0,
1)に収束するわけではない。
訂正の過程を説明する。入力の初期値(X1,X2)が例え
ば(0.4,0.6)といった学習パターンにない中途半端な
パターンとして誤差訂正回路50に入力したとする。この
入力値を上記回路が計算すると、出力値は第3図に示さ
れているように(0.345,0.701)となる。想起モードで
あるので、フィードバック信号を入力素子X1,X2に入力
するようにモードスイッチ20を切り替える。出力Y1を入
力X1に、出力Y2を入力X2にフィードバックすると、出力
パターンは(0.257,0.832)→(0.150,0.929)→(0.07
4,0.964)と変化し、順次(0,1)の学習パターンに近づ
いて行く。ただし、学習も完全でないので、完全な(0,
1)に収束するわけではない。
誤差訂正回路50にどのような値の連想対象のパターン
入力があっても、連想対象のパターンは学習した学習パ
ターン(0,0),(1,0),(0,1),(1,1)のどれに一
番近いかを誤差訂正回路50がフィードバック計算するの
で、出力パターンは4つのパターンのいずれか一つに必
ず収束する。このようにどのような入力値に対しても正
しい連想出力を出せることを第3図は示している。本例
の場合、入力パターンがどの学習パターンに近いかを判
断するための第3図の4つの分割領域は、おおよそx=
0.5,x2=0.5で分割される領域である。
入力があっても、連想対象のパターンは学習した学習パ
ターン(0,0),(1,0),(0,1),(1,1)のどれに一
番近いかを誤差訂正回路50がフィードバック計算するの
で、出力パターンは4つのパターンのいずれか一つに必
ず収束する。このようにどのような入力値に対しても正
しい連想出力を出せることを第3図は示している。本例
の場合、入力パターンがどの学習パターンに近いかを判
断するための第3図の4つの分割領域は、おおよそx=
0.5,x2=0.5で分割される領域である。
このような分割領域は、学習パターン群の信号構成や
各パターンの学習の頻度に応じて変化する。
各パターンの学習の頻度に応じて変化する。
第4図は、第2図と同様な回路が2つのパターン
{(0,1),(1,0)}を学習したときの、入力信号のレ
ベル値に対する1回の計算による出力値の変化を示す。
第4図からも、連想対象の入力パターンが学習したパタ
ーンに近い出力パターンに変化することが分かる。ま
た、第4図から出力パターンの分布が入出力空間を2つ
の分割領域に分割することが分かる。上記分割領域の分
割線は、おおよそx1=x2の式で表わされる。本例と同一
の条件で行った第13図の従来型の連想記憶の出力結果と
異なり、正しい想起を行うことは明らかである。
{(0,1),(1,0)}を学習したときの、入力信号のレ
ベル値に対する1回の計算による出力値の変化を示す。
第4図からも、連想対象の入力パターンが学習したパタ
ーンに近い出力パターンに変化することが分かる。ま
た、第4図から出力パターンの分布が入出力空間を2つ
の分割領域に分割することが分かる。上記分割領域の分
割線は、おおよそx1=x2の式で表わされる。本例と同一
の条件で行った第13図の従来型の連想記憶の出力結果と
異なり、正しい想起を行うことは明らかである。
第5図には、第2図の誤差訂正回路50に中間層を1つ
付加した、2入力の3層の多層のパターン連想記憶装置
の動作例を示す。中間層を構成する中間素子は出力素子
と同じ素子が用いられる。この例の多層パターン連想記
憶装置では、中間層は一層だけで、入力層、中間層、出
力層の素子がおのおの2個、入力層から出力層への直接
結合はない。なお、予め学習記憶させる学習パターンに
は{(0,0),(1,0),(0,1),(1,1)}を用いた。
第3図に示す入力層および出力層の2層のパターン連想
記憶装置と同じように、多層のパターン連想記憶装置も
必ず学習パターンに近い出力パターンを出力するように
振舞うことが示されている。一般に多層のパターン連想
では、より複雑な学習パターンの学習が可能であること
から、入力の次元が大きくなったときは、誤差訂正回路
を多層構造にするとよい。
付加した、2入力の3層の多層のパターン連想記憶装置
の動作例を示す。中間層を構成する中間素子は出力素子
と同じ素子が用いられる。この例の多層パターン連想記
憶装置では、中間層は一層だけで、入力層、中間層、出
力層の素子がおのおの2個、入力層から出力層への直接
結合はない。なお、予め学習記憶させる学習パターンに
は{(0,0),(1,0),(0,1),(1,1)}を用いた。
第3図に示す入力層および出力層の2層のパターン連想
記憶装置と同じように、多層のパターン連想記憶装置も
必ず学習パターンに近い出力パターンを出力するように
振舞うことが示されている。一般に多層のパターン連想
では、より複雑な学習パターンの学習が可能であること
から、入力の次元が大きくなったときは、誤差訂正回路
を多層構造にするとよい。
次に、本発明実施例を応用した実施例について述べ
る。本実施例において、パターンの一部として取扱う数
字のシンボルとしては、{one,two,three,four,five,si
x,seven,eight,nine}のアルファベットの文字列を用い
る。この文字列は学習記憶モードにおいてアスキー(AS
C)IIコード形態の信号でパターン連想記憶装置の入力
層の素子X1からX40に入力される。さらに素子X41かX65
に5ドット×5ドットのドット信号で表現される文字画
像パターン{1,2,3,4,5,6,7,8,9}が入力される。この
後、文字列パターンと文字画像パターンをペアとした学
習対象のパターンすなわち、{(one,1),(two,2),
…(nine,9)}がバックプロパゲーション法で誤差訂正
回路内に学習記憶される。
る。本実施例において、パターンの一部として取扱う数
字のシンボルとしては、{one,two,three,four,five,si
x,seven,eight,nine}のアルファベットの文字列を用い
る。この文字列は学習記憶モードにおいてアスキー(AS
C)IIコード形態の信号でパターン連想記憶装置の入力
層の素子X1からX40に入力される。さらに素子X41かX65
に5ドット×5ドットのドット信号で表現される文字画
像パターン{1,2,3,4,5,6,7,8,9}が入力される。この
後、文字列パターンと文字画像パターンをペアとした学
習対象のパターンすなわち、{(one,1),(two,2),
…(nine,9)}がバックプロパゲーション法で誤差訂正
回路内に学習記憶される。
第6図は、数字sixの文字列および文字画像のパター
ンが入力されたときに、文字画像パターン、数字6の文
字列が3サイクルのフィードバックで確定していく様子
を示す。第6図によれば、例えば、ノイズにより文字画
像パターンの一部が変形したり、文字コード列の一部が
他のコードに変形しても、誤差訂正回路のフィードバッ
ク処理によりノイズのない正しいパターンが想起されて
行くことが判る。
ンが入力されたときに、文字画像パターン、数字6の文
字列が3サイクルのフィードバックで確定していく様子
を示す。第6図によれば、例えば、ノイズにより文字画
像パターンの一部が変形したり、文字コード列の一部が
他のコードに変形しても、誤差訂正回路のフィードバッ
ク処理によりノイズのない正しいパターンが想起されて
行くことが判る。
本実施例のパターン連想記憶装置では、入力パターン
と出力パターンの誤差を訂正する学習記憶と、フィード
バック処理を行う想起活動とが行なわれるので、自律性
記憶の原理に基づいて記憶されたパターンの想起力は強
く、たとえば、文字列“one"の一部である文字“0"だけ
を想起対象のパターンとして入力しても学習記憶した文
字パターンおよび文字列の両方を想起することができ
る。さらに、文字列“one"に対する文字画像パターンを
2種類誤差訂正回路に学習記憶させた後、複数の文字画
像パターンの中の1つを選択的に想起することもでき
る。この場合出力パターンが所望でないときは、文字列
“one"を固定しておいて、いま連想された文字パターン
を否定するために、たとえばある1つの出力要素の値が
“1"であれば、この出力要素の値を“−1"に置換して、
フィードバック処理を行うと他の候補であった文字パタ
ーンが想起される。
と出力パターンの誤差を訂正する学習記憶と、フィード
バック処理を行う想起活動とが行なわれるので、自律性
記憶の原理に基づいて記憶されたパターンの想起力は強
く、たとえば、文字列“one"の一部である文字“0"だけ
を想起対象のパターンとして入力しても学習記憶した文
字パターンおよび文字列の両方を想起することができ
る。さらに、文字列“one"に対する文字画像パターンを
2種類誤差訂正回路に学習記憶させた後、複数の文字画
像パターンの中の1つを選択的に想起することもでき
る。この場合出力パターンが所望でないときは、文字列
“one"を固定しておいて、いま連想された文字パターン
を否定するために、たとえばある1つの出力要素の値が
“1"であれば、この出力要素の値を“−1"に置換して、
フィードバック処理を行うと他の候補であった文字パタ
ーンが想起される。
以上説明したように、本発明第1実施例におけるパタ
ーン連想記憶方法は、あらゆるパターンを記憶できると
いう学習記憶特性と想起の精度が高いという想起特性を
有するので、従来のパターン連想記憶方法にないこの特
徴を活用することにより、例えば、曖昧な情報を正しい
情報に変換したり、単語のスペルをチェックするなどの
処理など多種の情報処理に本発明を適用することが可能
となる。
ーン連想記憶方法は、あらゆるパターンを記憶できると
いう学習記憶特性と想起の精度が高いという想起特性を
有するので、従来のパターン連想記憶方法にないこの特
徴を活用することにより、例えば、曖昧な情報を正しい
情報に変換したり、単語のスペルをチェックするなどの
処理など多種の情報処理に本発明を適用することが可能
となる。
本発明の第1実施例は手動操作により誤差訂正回路の
伝達効率を設定する例であった。次に、上記伝達効率を
自動的に設定することができる第2実施例を説明する。
伝達効率を設定する例であった。次に、上記伝達効率を
自動的に設定することができる第2実施例を説明する。
第7図は本発明第2実施例の回路構成を示す。
第7図において符号200は誤差訂正回路であり、連想
の対象となる一つのパターンを入力し、このパターンに
最も近い基本パターンを出力する。誤差訂正回路200は
第1図に示す回路構成と同様の構成とすることができる
ので、詳細な説明を省略する。
の対象となる一つのパターンを入力し、このパターンに
最も近い基本パターンを出力する。誤差訂正回路200は
第1図に示す回路構成と同様の構成とすることができる
ので、詳細な説明を省略する。
符号201は切り換え装置であり、複数のフィードバッ
ク信号206と複数の入力信号204とを選択的に誤差訂正回
路200に入力する。切り換え装置201に対する切換え指示
信号は、モードスイッチ202又は、ホストコンピュータ2
20のいずれか一方から出力される。
ク信号206と複数の入力信号204とを選択的に誤差訂正回
路200に入力する。切り換え装置201に対する切換え指示
信号は、モードスイッチ202又は、ホストコンピュータ2
20のいずれか一方から出力される。
符号210はインターフェースであり、誤差訂正回路200
に入力される複数の入力信号のおのおののレベル値、た
とえば、電圧値をデジタル値に変換した後にこのデジタ
ル形態のレベル値をホストコンピュータ220に転送す
る。インターフェース210はホストコンピュータ220から
送信された上記切換指示信号を切り換え装置201の動作
レベルにレベル変換する。
に入力される複数の入力信号のおのおののレベル値、た
とえば、電圧値をデジタル値に変換した後にこのデジタ
ル形態のレベル値をホストコンピュータ220に転送す
る。インターフェース210はホストコンピュータ220から
送信された上記切換指示信号を切り換え装置201の動作
レベルにレベル変換する。
符号211はインターフェースであり、ホストコンピュ
ータ220により指示される伝達効率情報、たとえば、抵
抗値、を誤差修正回路200に転送する。誤差修正回路200
内の結合線上に設けられた複数の可変抵抗(第2図参
照)の抵抗値が上記伝達効率情報により定められる。
ータ220により指示される伝達効率情報、たとえば、抵
抗値、を誤差修正回路200に転送する。誤差修正回路200
内の結合線上に設けられた複数の可変抵抗(第2図参
照)の抵抗値が上記伝達効率情報により定められる。
符号212はインターフェースであり、誤差修正回路200
の複数の出力信号のおのおののレベル値をデジタル値に
変換した後に、デジタル形態のレベル値をホストコンピ
ュータ220へ転送する。
の複数の出力信号のおのおののレベル値をデジタル値に
変換した後に、デジタル形態のレベル値をホストコンピ
ュータ220へ転送する。
符号213はプログラム言語の命令形態で学習モードお
よび想起モードをホストコンピュータ220に指示入力す
るためのキーボードである。
よび想起モードをホストコンピュータ220に指示入力す
るためのキーボードである。
ホストコンピュータ220は装置全体の動作を制御す
る。またホストコンピュータ220は、学習モードにおい
ては誤差訂正回路200の伝達効率を計算し、計算結果を
メモリ装置214に記憶する。ホストコンピュータ220は、
想起モードにおいては、出力信号のレベルを監視するこ
とにより出力信号が収束したか否かを判定する。この出
力信号が収束したときは、連想処理が終了した旨のメッ
セージが、ホストコンピュータ220の指示により表示装
置215に表示される。インターフェース210-212,キーボ
ード213,メモリ装置214,表示装置215およびホストコン
ピュータ220はバス216に共通接続されている。
る。またホストコンピュータ220は、学習モードにおい
ては誤差訂正回路200の伝達効率を計算し、計算結果を
メモリ装置214に記憶する。ホストコンピュータ220は、
想起モードにおいては、出力信号のレベルを監視するこ
とにより出力信号が収束したか否かを判定する。この出
力信号が収束したときは、連想処理が終了した旨のメッ
セージが、ホストコンピュータ220の指示により表示装
置215に表示される。インターフェース210-212,キーボ
ード213,メモリ装置214,表示装置215およびホストコン
ピュータ220はバス216に共通接続されている。
本発明第2実施例の動作を第8図および第9図のフロ
ーチャートを参照して説明する。第8図は、学習モード
においてホストコンピュータ220が実行する制御手順を
示し、第9図は想起モードにおいてホストコンピュータ
220が実行する制御手順を示す。
ーチャートを参照して説明する。第8図は、学習モード
においてホストコンピュータ220が実行する制御手順を
示し、第9図は想起モードにおいてホストコンピュータ
220が実行する制御手順を示す。
オペレータがキーボード213から学習モードを指示入
力すると、ホストコンピュータ220は、伝達効率の計算
に用いるパラメータを、予め定めた初期値に設定し、誤
差訂正回路200には伝達効率の初期値を与える(ステッ
プS1→ステップS2)。
力すると、ホストコンピュータ220は、伝達効率の計算
に用いるパラメータを、予め定めた初期値に設定し、誤
差訂正回路200には伝達効率の初期値を与える(ステッ
プS1→ステップS2)。
次に、ホストコンピュータ220は切換え指示信号を切
換え装置201に送信し、入力信号204側に接続を切換えた
後、学習すべきパターンを示す入力信号204を、切換え
装置201→インターフェース210の経由で受信する(ステ
ップS3)。
換え装置201に送信し、入力信号204側に接続を切換えた
後、学習すべきパターンを示す入力信号204を、切換え
装置201→インターフェース210の経由で受信する(ステ
ップS3)。
学習すべき入力信号204は誤差訂正回路200にも入力さ
れる。この入力信号204は、学習の間外部装置、例え
ば、画像処理装置,音声処理装置から保持出力されてい
るものとする。
れる。この入力信号204は、学習の間外部装置、例え
ば、画像処理装置,音声処理装置から保持出力されてい
るものとする。
続いて、ホストコンピュータ220はインターフェース2
12を介して、誤差訂正回路200からの出力信号205を受信
する(ステップS4)。
12を介して、誤差訂正回路200からの出力信号205を受信
する(ステップS4)。
次に、入力信号204の各レベル値と入力信号204の各信
号と対応する出力信号205の各レベル値が一致するか否
か、すなわち、入力パターンと出力パターンが一致する
か否かがホストコンピュータ220で判定される。
号と対応する出力信号205の各レベル値が一致するか否
か、すなわち、入力パターンと出力パターンが一致する
か否かがホストコンピュータ220で判定される。
入力パターンと出力パターンとが一致しないときは、
現在、設定されている伝達効率(抵抗値)に一定値を加
算又は減算することにより現在の伝達効率が修正され
る。なお、修正値として上述のプロパゲーション手法に
より定まる修正値を用いると学習処理時間が短縮化され
る。
現在、設定されている伝達効率(抵抗値)に一定値を加
算又は減算することにより現在の伝達効率が修正され
る。なお、修正値として上述のプロパゲーション手法に
より定まる修正値を用いると学習処理時間が短縮化され
る。
この修正された伝達効率が誤差訂正回路200に指示さ
れる(ステップS6)。誤差訂正回路200内の可変抵抗の
抵抗値が指示された伝達効率の抵抗値に設定されると、
誤差訂正回路200は新たに設定された伝達効率で、入力
信号204をレベル変換する。
れる(ステップS6)。誤差訂正回路200内の可変抵抗の
抵抗値が指示された伝達効率の抵抗値に設定されると、
誤差訂正回路200は新たに設定された伝達効率で、入力
信号204をレベル変換する。
ホストコンピュータ220は入力信号204と新たに出力さ
れた出力信号205のパターン比較を行う(ステップS3→
ステップS4→ステップS5)。
れた出力信号205のパターン比較を行う(ステップS3→
ステップS4→ステップS5)。
入力パターンと出力パターンが一致しないときは、誤
差訂正回路200の伝達効率を修正する(ステップS6)。
以下、上述のステップS3からステップS6の手順を、入力
パターンと出力パターンが一致するまで繰り返す。
差訂正回路200の伝達効率を修正する(ステップS6)。
以下、上述のステップS3からステップS6の手順を、入力
パターンと出力パターンが一致するまで繰り返す。
入力パターンと出力パターンがある定めた精度内で一
致したときは、ホストコンピュータ220は現在設定され
ている伝達効率をメモリ装置214に記憶した後、学習終
了の旨のメッセージを表示装置215に表示して本制御手
順を終了する(ステップS5→ステップS7)。
致したときは、ホストコンピュータ220は現在設定され
ている伝達効率をメモリ装置214に記憶した後、学習終
了の旨のメッセージを表示装置215に表示して本制御手
順を終了する(ステップS5→ステップS7)。
次に、想起処理について説明する。キーボード213か
ら想起モードが指示されると、ホストコンピュータ220
は第9図の制御手順を実行する。この制御手順により最
初に、学習モードにおいて設定された伝達効率がメモリ
装置214から読み出される。次に、読み出された伝達効
率と同じ値となるように誤差訂正回路200の伝達効率が
ホストコンピュータ220により設定される(ステップS1
1)。
ら想起モードが指示されると、ホストコンピュータ220
は第9図の制御手順を実行する。この制御手順により最
初に、学習モードにおいて設定された伝達効率がメモリ
装置214から読み出される。次に、読み出された伝達効
率と同じ値となるように誤差訂正回路200の伝達効率が
ホストコンピュータ220により設定される(ステップS1
1)。
次に、ホストコンピュータ220は切換え装置201に入力
信号の入力のための切換指示信号を送信する。この結
果、想起対象の入力信号204が誤差訂正回路200に入力さ
れる(ステップS3)。誤差訂正回路200の出力レベルが
変化で第1回目の誤差訂正回路200の計算が終了したこ
とをホストコンピュータ220が検知すると、ホストコン
ピュータ220は、切換え装置201の接続を切り替えるため
に切換え指示信号を送出する。この結果、フィードバッ
ク信号206が誤差訂正回路200に入力されるので、誤差訂
正回路200は、動作停止の指示があるまで連想のための
誤差訂正計算を繰り返し実行する。
信号の入力のための切換指示信号を送信する。この結
果、想起対象の入力信号204が誤差訂正回路200に入力さ
れる(ステップS3)。誤差訂正回路200の出力レベルが
変化で第1回目の誤差訂正回路200の計算が終了したこ
とをホストコンピュータ220が検知すると、ホストコン
ピュータ220は、切換え装置201の接続を切り替えるため
に切換え指示信号を送出する。この結果、フィードバッ
ク信号206が誤差訂正回路200に入力されるので、誤差訂
正回路200は、動作停止の指示があるまで連想のための
誤差訂正計算を繰り返し実行する。
ホストコンピュータ220は誤差訂正回路200の出力信号
205を一定時間間隔でサンプリングする(ステップS1
4)。
205を一定時間間隔でサンプリングする(ステップS1
4)。
ホストコンピュータ220は出力信号205をサンプリング
する毎に、今回サンプリングした出力信号205のレベル
値と、前回サンプリングした出力信号205のレベル値と
を比較する(ステップS15)。
する毎に、今回サンプリングした出力信号205のレベル
値と、前回サンプリングした出力信号205のレベル値と
を比較する(ステップS15)。
今回および前回のレベル値がほぼ一致したときは、ホ
ストコンピュータ220は出力信号205が収束したと判断
し、その旨のメッセージと連想結果とを表示装置215に
表示して本制御手順を終了する(ステップS5→ステップ
S7)。
ストコンピュータ220は出力信号205が収束したと判断
し、その旨のメッセージと連想結果とを表示装置215に
表示して本制御手順を終了する(ステップS5→ステップ
S7)。
一方、今回および前回のレベル値が一致していないと
きは、手順はステップS14に戻り、ホストコンピュータ2
20は出力信号205のサンプリングを続ける。
きは、手順はステップS14に戻り、ホストコンピュータ2
20は出力信号205のサンプリングを続ける。
オペレータは表示装置215に表示されたメッセージに
より連想処理の終了とその結果を知ることができるの
で、出力信号の205のレベルを、電圧計により監視する
必要がなく、操作者の操作処理が簡素化される。
より連想処理の終了とその結果を知ることができるの
で、出力信号の205のレベルを、電圧計により監視する
必要がなく、操作者の操作処理が簡素化される。
なお、本実施例では、1組のパターンを学習させる例
を示したが、2組以上のパターンを学習させることもで
きる。たとえば、一定間隔で第1の入力パターンと、第
2の入力パターンを交互に誤差訂正回路200に入力させ
る。ホストコンピュータ220は、誤差訂正回路200から交
互に出力される二つの出力パターンと二つの入力パター
ンをそれぞれ比較する。すなわち、第1の入力パターン
と第1の出力パターンが一致し、第2の入力パターンと
第2の出力パターンが一致するように2つのパターンに
共有の伝達効率がバックプロパゲーション法に基づいて
定められる。
を示したが、2組以上のパターンを学習させることもで
きる。たとえば、一定間隔で第1の入力パターンと、第
2の入力パターンを交互に誤差訂正回路200に入力させ
る。ホストコンピュータ220は、誤差訂正回路200から交
互に出力される二つの出力パターンと二つの入力パター
ンをそれぞれ比較する。すなわち、第1の入力パターン
と第1の出力パターンが一致し、第2の入力パターンと
第2の出力パターンが一致するように2つのパターンに
共有の伝達効率がバックプロパゲーション法に基づいて
定められる。
想起モードで想起対象のパターンが入力されたとき
は、上述の二つの出力パターンの中の、想起対象のパタ
ーンに最も類似する出力パターンが、誤差訂正回路200
のフィードバック処理の結果として出力される。
は、上述の二つの出力パターンの中の、想起対象のパタ
ーンに最も類似する出力パターンが、誤差訂正回路200
のフィードバック処理の結果として出力される。
第1実施例および第2実施例は誤差訂正回路200をア
ナログ回路の形態で構成していたが、次に、誤差訂正回
路200が行う学習処理および連想処理をコンピュータに
より実行する例を説明する。第10図は本発明第3実施例
の回路構成を示す。
ナログ回路の形態で構成していたが、次に、誤差訂正回
路200が行う学習処理および連想処理をコンピュータに
より実行する例を説明する。第10図は本発明第3実施例
の回路構成を示す。
第10図において、符号301は学習モードにおいては学
習すべきパターン信号を入力し、想起モードでは想起対
象のパターン信号を入力するインターフェースである。
符号302は入力パターンの学習処理および想起処理を行
うコンピュータである。コンピュータ302には中央演算
処理装置(CPU)のチップ,パーソナルコンピュータ,
スーパーコンピュータなどの各種のコンピュータを用い
ることができる。符号303は学習モードおよび想起モー
ドを指示入力するモードスイッチ303である。
習すべきパターン信号を入力し、想起モードでは想起対
象のパターン信号を入力するインターフェースである。
符号302は入力パターンの学習処理および想起処理を行
うコンピュータである。コンピュータ302には中央演算
処理装置(CPU)のチップ,パーソナルコンピュータ,
スーパーコンピュータなどの各種のコンピュータを用い
ることができる。符号303は学習モードおよび想起モー
ドを指示入力するモードスイッチ303である。
符号304はコンピュータ302により決定された伝達効率
やコンピュータ304の計算処理で用いられる演算データ
を記憶するメモリ装置である。
やコンピュータ304の計算処理で用いられる演算データ
を記憶するメモリ装置である。
符号305は、想起モードにおいて、コンピュータ302に
より算出された想起結果を出力するインターフェース30
5である。
より算出された想起結果を出力するインターフェース30
5である。
このような回路構成のパターン連想記憶装置、300の
動作を第11図および第12図のフローチャートを参照して
説明する。
動作を第11図および第12図のフローチャートを参照して
説明する。
第11図は学習モードにおいてコンピュータ302が実行
する制御手順を示し、第12図は想起モードにおいてコン
ピュータ302が実行する制御手順を示す。
する制御手順を示し、第12図は想起モードにおいてコン
ピュータ302が実行する制御手順を示す。
本例においては第2図に示す誤差訂正回路50と同等の
処理をコンピュータ302により実行する場合について説
明する。
処理をコンピュータ302により実行する場合について説
明する。
オペレータによりモードスイッチ303が操作され、学
習モードがコンピュータ303に指示される(ステップS2
1)、コンピュータ303は、初期化処理を行った後、イン
ターフェース301に入力されている学習すべきパターン
情報をメモリ装置304に記憶する(ステップS22→S2
3)。
習モードがコンピュータ303に指示される(ステップS2
1)、コンピュータ303は、初期化処理を行った後、イン
ターフェース301に入力されている学習すべきパターン
情報をメモリ装置304に記憶する(ステップS22→S2
3)。
続いてこのパターン情報に基づき、2入力の誤差訂正
計算を行う。この計算において用いるパラメータの種類
は次の通りである。
計算を行う。この計算において用いるパラメータの種類
は次の通りである。
P01:学習目標のパターン信号のレベル値、 P02:学習目標のパターン信号のレベル値、 b1:第2図の入力素子X1の入力活動、 b2:第2図の入力素子X2の入力活動、 w1:第2図の可変抵抗17の伝達効率、 w2:第2図の可変抵抗14の伝達効率、 w1′:第2図の可変抵抗16の伝達効率、 w2′:第2図の可変抵抗15の伝達効率、 y1:第2図の出力素子Y1の出力活動、 y2:第2図の出力素子Y2の出力活動、 f:シブモイド関数、 θ1:出力素子Y1に与えるバイアス、 θ2:出力素子Y2に与えるバイアス、 また、出力活動 出力活動 と算出される。
コンピュータ302は伝達効率w1,w2,w1′,w2′を初期
値設定した後、上述の式により出力活動y1,y2を計算す
る(ステップS25)。
値設定した後、上述の式により出力活動y1,y2を計算す
る(ステップS25)。
コンピュータ302はパターン信号のレベル値P01と出力
活動y1とを比較し、パターン信号のレベル値P02と出力
活動y2とをそれぞれ比較する(ステップS26)。上記入
力活動と上記出力活動の2つの比較において、一致がみ
られないときは、次のバックプロパゲーション学習方法
により伝達係数およびバイアスの修正を行う。
活動y1とを比較し、パターン信号のレベル値P02と出力
活動y2とをそれぞれ比較する(ステップS26)。上記入
力活動と上記出力活動の2つの比較において、一致がみ
られないときは、次のバックプロパゲーション学習方法
により伝達係数およびバイアスの修正を行う。
最初に、学習パターン(P01,P02)と出力パターン(y
1,y2)の誤差d1,d2をプロパゲーション学習手法に基い
た次式により計算する。
1,y2)の誤差d1,d2をプロパゲーション学習手法に基い
た次式により計算する。
d1=(y1−P01)×y1×(1−y1) d2=(y2−P02)×y2×(1−y2) 次に誤差d1,d2を用いて、出力素子Y1と結合線の伝達
効率w1,w2に対する修正量Δw1,Δw2およびバイアス
θ1,θ2に対する修正量Δθ1,Δθ2を次式により計算
する。
効率w1,w2に対する修正量Δw1,Δw2およびバイアス
θ1,θ2に対する修正量Δθ1,Δθ2を次式により計算
する。
Δw1=−ε×d1×x1 Δw2=−ε×d2×x2 Δθ1=−ε×d1 ここでεは正の定数(x1,x2)は入力パターンであ
り、本例では目標パターンがそのまま、入力パターンと
なる。また出力素子Y2の結合線の伝達効率w1′,w2′に
対する修正量Δw1′,Δw2′は、同様に次式により定ま
る。
り、本例では目標パターンがそのまま、入力パターンと
なる。また出力素子Y2の結合線の伝達効率w1′,w2′に
対する修正量Δw1′,Δw2′は、同様に次式により定ま
る。
Δw1′=−ε×d2×x1 Δw2′=−ε×d2×x2 Δθ2=−ε×d2 コンピュータ302はこのように計算した、修正量に基
き、現在設定されている伝達効率およびバイアスの値を
修正する(ステップS27)。
き、現在設定されている伝達効率およびバイアスの値を
修正する(ステップS27)。
以下、修正した伝達効率およびバイアスの値を用いて
入力パターン(x1,x2)の誤差訂正計算が実行される。
このように、出力パターン(y1,y2)と目標パターン(P
01,P02)が一致するまで、伝達効率およびバイアスのθ
の修正が繰り返された後、ホストコンピュータ302は上
記出力パターンと上記目標パターンがある精度内で一致
したときの各伝達効率および各バイアスの値をメモリ装
置304に記憶して学習処理を終了する(ステップS26)。
入力パターン(x1,x2)の誤差訂正計算が実行される。
このように、出力パターン(y1,y2)と目標パターン(P
01,P02)が一致するまで、伝達効率およびバイアスのθ
の修正が繰り返された後、ホストコンピュータ302は上
記出力パターンと上記目標パターンがある精度内で一致
したときの各伝達効率および各バイアスの値をメモリ装
置304に記憶して学習処理を終了する(ステップS26)。
次に、コンピュータ302の想起処理について説明す
る。
る。
モードスイッチ303により想起モードが指示され、イン
ターフェース301を介してコンピュータ302に想起対象の
パターン情報、すなわち、パターン信号I1,I2が入力さ
れると、コンピュータ302は第12図に示す制御手順を実
行する。
ターフェース301を介してコンピュータ302に想起対象の
パターン情報、すなわち、パターン信号I1,I2が入力さ
れると、コンピュータ302は第12図に示す制御手順を実
行する。
第12図において、コンピュータ302は入力したパター
ン情報を内部レジスタに記憶した後、メモリ装置304に
記憶されている伝達係数およびバイアスの値を読み出す
(ステップS31→ステップS32)。次に、コンピュータ30
2はこれら伝達係数、バイアスの値および入力パターン
のレベル値を用いて、第1回目の誤差訂正計算を行う
(ステップS25)。この誤差訂正計算の手順は、第11図
のステップS25における誤差訂正計算と同様であり、詳
細な説明を省略する。
ン情報を内部レジスタに記憶した後、メモリ装置304に
記憶されている伝達係数およびバイアスの値を読み出す
(ステップS31→ステップS32)。次に、コンピュータ30
2はこれら伝達係数、バイアスの値および入力パターン
のレベル値を用いて、第1回目の誤差訂正計算を行う
(ステップS25)。この誤差訂正計算の手順は、第11図
のステップS25における誤差訂正計算と同様であり、詳
細な説明を省略する。
誤差訂正計算の結果(出力パターン)が得られると、
ホストコンピュータ302は計算の結果を入力パターンと
して用いて第2回目の誤差訂正のためのフィードバック
計算を行う(ステップS24→ステップS25)。
ホストコンピュータ302は計算の結果を入力パターンと
して用いて第2回目の誤差訂正のためのフィードバック
計算を行う(ステップS24→ステップS25)。
次に、第1回目の計算結果と、第2回目の計算結果が
一致しているか否かがコンピュータ302により判別され
る(ステップS36)。上記二つの計算結果が一致してい
ないときは、計算結果が収束していないと判定される。
手順はステップS34に戻り、第3回目の計算が行なわれ
る(ステップS36→ステップS34→ステップS35→ステッ
プS36)。
一致しているか否かがコンピュータ302により判別され
る(ステップS36)。上記二つの計算結果が一致してい
ないときは、計算結果が収束していないと判定される。
手順はステップS34に戻り、第3回目の計算が行なわれ
る(ステップS36→ステップS34→ステップS35→ステッ
プS36)。
以下、今回の計算結果と前回の計算結果が一致するま
で、すなわち、計算結果が収束するまで誤差訂正のため
のフィードバック計算が繰り返される。
で、すなわち、計算結果が収束するまで誤差訂正のため
のフィードバック計算が繰り返される。
計算結果が収束したことがコンピュータ302により検
出されると(ステップS36)、このときの計算結果が出
力パターンとしてインターフェース305を介して出力さ
れる(ステップS28)。
出されると(ステップS36)、このときの計算結果が出
力パターンとしてインターフェース305を介して出力さ
れる(ステップS28)。
以上説明したように、本実施例では誤差訂正計算をコ
ンピュータで行うようにしたので、連想記憶装置の装置
構成が簡素化され、装置の製造において複雑な配線作業
も省略することができる。
ンピュータで行うようにしたので、連想記憶装置の装置
構成が簡素化され、装置の製造において複雑な配線作業
も省略することができる。
なお、本実施例の誤差訂正のための出力要素の計算に
おいて、シグモイド関数を用いているがロジスティック
関数や他の微分関数を用いることもできる。ただし、シ
グモイド関数がコンピュータの演算時間が短く、最も好
適である。
おいて、シグモイド関数を用いているがロジスティック
関数や他の微分関数を用いることもできる。ただし、シ
グモイド関数がコンピュータの演算時間が短く、最も好
適である。
[発明の効果] 以上、説明したように、本発明の第1形態、第3形態
では想起時にのみ出力素子群の出力信号を入力素子群へ
フィードバック入力する。これにより、フィードバック
系のない従来の連想記憶装置に比べると、想起精度が高
まる。また、学習および想起モード共にフィードバック
処理する従来例に比べると、想起精度を落とすことな
く、学習処理時間が短縮される。
では想起時にのみ出力素子群の出力信号を入力素子群へ
フィードバック入力する。これにより、フィードバック
系のない従来の連想記憶装置に比べると、想起精度が高
まる。また、学習および想起モード共にフィードバック
処理する従来例に比べると、想起精度を落とすことな
く、学習処理時間が短縮される。
本発明の第2形態では、第1形態に加えて、出力素子
群の信号レベル変換特性のバイアスをも可変設定するよ
うにしたので、パターン信号を記憶するときに、入力信
号と出力信号のレベル値を完全に一致させることがで
き、以て、誤差訂正回路のパターン信号の記憶精度を高
めることができる。
群の信号レベル変換特性のバイアスをも可変設定するよ
うにしたので、パターン信号を記憶するときに、入力信
号と出力信号のレベル値を完全に一致させることがで
き、以て、誤差訂正回路のパターン信号の記憶精度を高
めることができる。
本発明の第4形態では、さらに中間素子を有している
ので、想起精度が高まる。
ので、想起精度が高まる。
本発明の第5形態では、パターン信号の学習結果が結
合線の伝達効率の形態で記憶されるので、想起時にはこ
の伝達効率を用いて、直ちに連想処理を行なうことがで
きる。
合線の伝達効率の形態で記憶されるので、想起時にはこ
の伝達効率を用いて、直ちに連想処理を行なうことがで
きる。
本発明の第6形態では、バックプロパゲーション方法
により伝達効率の修正値を定めるので、一定の修正値で
伝達効率の値を修正するよりも、伝達効率を設定するま
での計算処理時間を速くすることができる。
により伝達効率の修正値を定めるので、一定の修正値で
伝達効率の値を修正するよりも、伝達効率を設定するま
での計算処理時間を速くすることができる。
本発明の第7形態では、誤差訂正回路の出力信号のレ
ベル値が収束したときは、そのレベル値が変化しないこ
とに着目し、判定手段によりレベル値を監視して、表示
手段により想起処理の終了を表示するようにしたので、
操作者自身が出力信号のレベル値を監視する必要はな
い。
ベル値が収束したときは、そのレベル値が変化しないこ
とに着目し、判定手段によりレベル値を監視して、表示
手段により想起処理の終了を表示するようにしたので、
操作者自身が出力信号のレベル値を監視する必要はな
い。
第1図は本発明第1実施例の基本的な回路構成を示すブ
ロック図、 第2図は第1図に示す回路の具体例を示す回路図、 第3図は第2図に示す回路に種々の連想対象の入力信号
を入力した場合の入力値から出力値の変化を示す説明
図、 第4図は第2図に示す回路にパターン(0,1),(1,0)
をバックプロパゲーション学習をさせた後、連想対象の
入力信号を入力した場合の入力値から出力値の変化を示
す説明図、 第5図は2入力3層の連想記憶回路に(0,1),(1,
0),(1,1),(0,0)の4つのパターンをバックプロ
パゲーション学習をさせた後種々の入力信号を入力した
場合の入力値から出力値への変化を示す説明図、 第6図は本発明実施例における文字パターンの連想結果
の変化を示す説明図、 第7図は本発明第2実施例の回路構成を示すブロック
図、 第8図および第9図は第7図に示すホストコンピュータ
220が実行する制御手順を示すフローチャート、 第10図は本発明第3実施例の回路構成を示すブロック
図、 第11図および第12図は第10図に示すコンピュータ302が
実行する制御手順を示すフローチャート、 第13図は従来例の入力値から出力値の変化を示す説明図
である。 1……誤差訂正用ニューラルネットワーク回路、7……
入力信号、8……出力信号、9……フィードバック信
号、200……誤差訂正回路、213……キーボード、214…
…記憶装置、215……表示装置、220……ホストコンピュ
ータ。
ロック図、 第2図は第1図に示す回路の具体例を示す回路図、 第3図は第2図に示す回路に種々の連想対象の入力信号
を入力した場合の入力値から出力値の変化を示す説明
図、 第4図は第2図に示す回路にパターン(0,1),(1,0)
をバックプロパゲーション学習をさせた後、連想対象の
入力信号を入力した場合の入力値から出力値の変化を示
す説明図、 第5図は2入力3層の連想記憶回路に(0,1),(1,
0),(1,1),(0,0)の4つのパターンをバックプロ
パゲーション学習をさせた後種々の入力信号を入力した
場合の入力値から出力値への変化を示す説明図、 第6図は本発明実施例における文字パターンの連想結果
の変化を示す説明図、 第7図は本発明第2実施例の回路構成を示すブロック
図、 第8図および第9図は第7図に示すホストコンピュータ
220が実行する制御手順を示すフローチャート、 第10図は本発明第3実施例の回路構成を示すブロック
図、 第11図および第12図は第10図に示すコンピュータ302が
実行する制御手順を示すフローチャート、 第13図は従来例の入力値から出力値の変化を示す説明図
である。 1……誤差訂正用ニューラルネットワーク回路、7……
入力信号、8……出力信号、9……フィードバック信
号、200……誤差訂正回路、213……キーボード、214…
…記憶装置、215……表示装置、220……ホストコンピュ
ータ。
───────────────────────────────────────────────────── フロントページの続き (56)参考文献 日経エレクトロニクス 1987.8.10 (no.427)P.115−124「ニューラル ネットをパターン認識,信号処理,知識処 理に使う」 IEEE ASSP MAGAZINE APRIL 1987 P.4−22「An introduction to Com puting with neural net」R.D,Lippmonn
Claims (7)
- 【請求項1】少なくとも情報信号を入力する一団の入力
素子群、当該入力素子群と同じ個数で、かつ、それぞれ
が予め定められた信号レベル変換特性を有する一団の出
力素子群および前記入力素子群と前記出力素子群との間
をニューラルネットワークの形態で結合した複数の結合
線を備え、前記伝達効率を可変設定する誤差訂正回路を
有するパターン連想記憶装置のパターン連想記憶方法に
おいて、 学習を行なうときには、 前記入力素子群に学習目標のパターン信号を入力し、 前記出力素子群の出力誤差を前記入力素子群に対してバ
ックプロパゲーションさせて学習を行うバックプロパゲ
ーション学習方法を用いて、当該入力された複数のパタ
ーン信号と前記出力素子群から出力される複数の出力信
号とがほぼ同一レベルとなるように前記複数の出力信号
の前記入力素子群へのフィードバックを行なわず前記複
数の結合線の各伝達効率の値を可変設定することによ
り、前記複数のパターン信号が示すパターンを学習結果
として前記誤差訂正回路内に記憶し、想起を行うときに
は、学習で設定された伝達効率を用い、想起の基本とな
るパターン信号を前記入力素子群に入力した後、前記出
力素子群から出力される出力素子群を前記入力素子群に
フィードバック入力し、 収束状態となった前記出力信号を、前記想起の基本とな
るパターン信号に対する想起結果とする ことを特徴とするパターン連想記憶方法。 - 【請求項2】前記伝達効率の値と共に前記出力素子群の
各信号レベル変換特性のバイアスの値を可変設定するこ
とを特徴とする請求項1に記載のパターン連想記憶方
法。 - 【請求項3】想起の基本となるパターン信号を入力する
入力素子群、当該入力素子群と同じ個数で、かつ、それ
ぞれが予め定められた信号レベル変換特性を有する一団
の出力素子群および前記入力素子群と前記出力素子群と
の間をニューラルネットワークの形態で結合した複数の
結合線を備え、前記複数の結合線の伝達効率の値により
連想結果として用いる少なくとも1組以上のパターン信
号を予め記憶し、前記想起の基本となるパターン信号の
レベル値を前記1組以上のパターン信号の中の最も類似
するパターン信号のレベルに近付けるための誤差訂正手
段と、 該誤差訂正手段の前記出力素子群から出力される複数の
出力信号を前記入力素子群にフィードバック入力するた
めの信号線と、 学習記憶モード時には、前記誤差訂正手段の前記出力素
子群から出力される複数の出力信号のフィードバック入
力を阻止し、想起モード時には、当該フィードバック入
力を行なうように前記信号線を切換接続する信号線切換
手段と、 を具えたことを特徴とするパターン連想記憶装置。 - 【請求項4】前記誤差訂正手段は前記入力素子群と前記
出力素子群との間に予め定められた信号レベル変換特性
を有する少くとも1以上の中間素子群を備え、前記入力
素子群、前記中間素子群および出力素子群はニューラル
ネットワークの形態で結合されることを特徴とする請求
項3に記載のパターン連想記憶装置。 - 【請求項5】前記学習記憶モードにおいて、前記入力素
子群に入力された前記想起の基本となるパターン信号の
レベル値と前記出力素子群から出力されるパターンのレ
ベル値とがほぼ同一となるように、少くとも前記複数の
結合線の伝達効率の値を記憶条件として設定する記憶条
件設定手段を具えたことを特徴とする請求項3に記載の
パターン連想記憶装置。 - 【請求項6】前記記憶条件設定手段はバックプロパゲー
ション方法により、前記伝達効率の修正値を定めること
を特徴とする請求項5に記載のパターン連想記憶装置。 - 【請求項7】前記誤差訂正手段の前記出力素子群の出力
信号のレベル値が変化しているか否かを判定する判定手
段と、該判定手段の判定結果が否定判定となったとき
に、想起処理の終了を表示する表示手段とを具えたこと
を特徴とする請求項3に記載のパターン連想記憶装置。
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP1205462A JPH087789B2 (ja) | 1988-08-15 | 1989-08-08 | パターン連想記憶方法および装置 |
| US07/394,062 US5107454A (en) | 1988-08-15 | 1989-08-14 | Pattern associative memory system |
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP20297688 | 1988-08-15 | ||
| JP63-202976 | 1988-08-15 | ||
| JP1205462A JPH087789B2 (ja) | 1988-08-15 | 1989-08-08 | パターン連想記憶方法および装置 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JPH02138679A JPH02138679A (ja) | 1990-05-28 |
| JPH087789B2 true JPH087789B2 (ja) | 1996-01-29 |
Family
ID=26513673
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP1205462A Expired - Lifetime JPH087789B2 (ja) | 1988-08-15 | 1989-08-08 | パターン連想記憶方法および装置 |
Country Status (2)
| Country | Link |
|---|---|
| US (1) | US5107454A (ja) |
| JP (1) | JPH087789B2 (ja) |
Families Citing this family (27)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5293459A (en) * | 1988-12-23 | 1994-03-08 | U.S. Philips Corporation | Neural integrated circuit comprising learning means |
| US5588091A (en) * | 1989-05-17 | 1996-12-24 | Environmental Research Institute Of Michigan | Dynamically stable associative learning neural network system |
| DE68927675T2 (de) * | 1989-08-23 | 1997-07-10 | Hitachi Ltd | Verfahren zur Richtigstellung von Netzwerkwichtungsfaktoren in einer mehrschichtigen Perceptronvorrichtung und eine solche Vorrichtung mit Mitteln zur Ausführung dieses Verfahrens |
| JPH03167655A (ja) * | 1989-11-28 | 1991-07-19 | Toshiba Corp | ニューラルネットワーク |
| GB8929146D0 (en) * | 1989-12-22 | 1990-02-28 | British Telecomm | Neural networks |
| WO1991019267A1 (en) * | 1990-06-06 | 1991-12-12 | Hughes Aircraft Company | Neural network processor |
| JP2763182B2 (ja) * | 1990-06-28 | 1998-06-11 | 株式会社東芝 | ニューラル・ネットワークの学習方法 |
| GB2246895B (en) * | 1990-07-12 | 1994-03-30 | Mitsubishi Electric Corp | Neural network system |
| KR920002268A (ko) * | 1990-07-17 | 1992-02-28 | 유끼노리 가까즈 | 인텔리젠트가공장치 |
| KR930009065B1 (ko) * | 1990-08-18 | 1993-09-22 | 정호선 | 다층신경회로망 및 그 회로설계방법 |
| US5181171A (en) * | 1990-09-20 | 1993-01-19 | Atlantic Richfield Company | Adaptive network for automated first break picking of seismic refraction events and method of operating the same |
| US5671335A (en) * | 1991-05-23 | 1997-09-23 | Allen-Bradley Company, Inc. | Process optimization using a neural network |
| JPH0683792A (ja) * | 1991-06-12 | 1994-03-25 | Hitachi Ltd | ニューラルネットワークの学習装置およびニューラルネットワークの学習パターン呈示方法 |
| JP2722906B2 (ja) * | 1991-12-27 | 1998-03-09 | ダイキン工業株式会社 | 未知数量推定方法およびその装置 |
| JP3171897B2 (ja) * | 1992-01-07 | 2001-06-04 | 三菱電機株式会社 | 知識情報処理装置 |
| US5404556A (en) * | 1992-06-15 | 1995-04-04 | California Institute Of Technology | Apparatus for carrying out asynchronous communication among integrated circuits |
| US5479572A (en) * | 1992-06-17 | 1995-12-26 | Siemens Corporate Research, Inc. | Artificial neural network (ANN) classifier apparatus for selecting related computer routines and methods |
| KR950012359B1 (ko) * | 1992-08-28 | 1995-10-17 | 엘지전자주식회사 | 신경회로망 구조와 학습방법 |
| US5737496A (en) * | 1993-11-17 | 1998-04-07 | Lucent Technologies Inc. | Active neural network control of wafer attributes in a plasma etch process |
| JP3633642B2 (ja) * | 1994-02-28 | 2005-03-30 | 富士通株式会社 | 情報の処理装置 |
| TW284866B (ja) * | 1994-07-08 | 1996-09-01 | Philips Electronics Nv | |
| US5666468A (en) * | 1994-12-02 | 1997-09-09 | Grumman Corporation | Neural network binary code recognizer |
| JP2002259939A (ja) * | 2001-03-05 | 2002-09-13 | Kitakiyuushiyuu Techno Center:Kk | 連想メモリーベースコンピュータ |
| US20100138066A1 (en) * | 2008-11-14 | 2010-06-03 | Thinkeco Power Inc. | System and method of democratizing power to create a meta-exchange |
| US8536087B2 (en) | 2010-04-08 | 2013-09-17 | International Imaging Materials, Inc. | Thermographic imaging element |
| US8645404B2 (en) * | 2011-10-21 | 2014-02-04 | International Business Machines Corporation | Memory pattern searching via displaced-read memory addressing |
| WO2019171123A1 (en) * | 2018-03-05 | 2019-09-12 | Omron Corporation | Method, apparatus, system and program for controlling a robot, and storage medium |
Family Cites Families (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US4660166A (en) * | 1985-01-22 | 1987-04-21 | Bell Telephone Laboratories, Incorporated | Electronic network for collective decision based on large number of connections between signals |
| US4719591A (en) * | 1985-11-07 | 1988-01-12 | American Telephone And Telegraph Company, At&T Bell Labs. | Optimization network for the decomposition of signals |
| US4912649A (en) * | 1988-12-14 | 1990-03-27 | Gte Government Systems Corporation | Accelerating learning in neural networks |
| US4941122A (en) * | 1989-01-12 | 1990-07-10 | Recognition Equipment Incorp. | Neural network image processing system |
| US4972363A (en) * | 1989-02-01 | 1990-11-20 | The Boeing Company | Neural network using stochastic processing |
-
1989
- 1989-08-08 JP JP1205462A patent/JPH087789B2/ja not_active Expired - Lifetime
- 1989-08-14 US US07/394,062 patent/US5107454A/en not_active Expired - Lifetime
Non-Patent Citations (2)
| Title |
|---|
| IEEEASSPMAGAZINEAPRIL1987P.4−22「AnintroductiontoComputingwithneuralnet」R.D,Lippmonn |
| 日経エレクトロニクス1987.8.10(no.427)P.115−124「ニューラルネットをパターン認識,信号処理,知識処理に使う」 |
Also Published As
| Publication number | Publication date |
|---|---|
| US5107454A (en) | 1992-04-21 |
| JPH02138679A (ja) | 1990-05-28 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JPH087789B2 (ja) | パターン連想記憶方法および装置 | |
| Gorinevsky et al. | Comparison of some neural network and scattered data approximations: The inverse manipulator kinematics example | |
| CN115392077A (zh) | 基于深度学习的卫星物理场级数字孪生模型构建方法 | |
| US5276770A (en) | Training of neural network for multi-source data fusion | |
| Abdella et al. | Treatment of missing data using neural networks and genetic algorithms | |
| EP0444878A2 (en) | Neural network | |
| CN111473768B (zh) | 一种建筑物安全智能检测系统 | |
| US5259039A (en) | Method of separating specific patterns from pattern space and apparatus therefor | |
| CN109344915A (zh) | 一种用于多传感器的融合方法及系统 | |
| US5644681A (en) | Learning method for neural network having discrete interconnection strengths | |
| CN117332818A (zh) | 基于自适应图神经网络多源数据融合的故障诊断方法 | |
| Turchenko et al. | Estimation of computational complexity of sensor accuracy improvement algorithm based on neural networks | |
| JPH05307535A (ja) | 学習型波形認識処理装置 | |
| KR20210113722A (ko) | 트랜스포즈 매트릭스 곱셈이 가능한 매트릭스 곱셈기 구조 및 곱셈방법 | |
| Odikwa et al. | An improved approach for hidden nodes selection in artificial neural network | |
| JPH0774980B2 (ja) | ニューロコンピュータを用いた手の姿勢認識方式 | |
| JPH096881A (ja) | ニューラルネットワーク | |
| PANDYA et al. | A stochastic parallel algorithm for supervised learning in neural networks | |
| Hayashi et al. | Implementation of fuzzy max-min neural controller | |
| CN110135557B (zh) | 一种图像处理系统的神经网络拓扑架构 | |
| KR100342886B1 (ko) | 이진 시스템 학습 방법 | |
| Abd-El-Reheim | Power network topology recognition using neural networks | |
| JPH11175494A (ja) | ニューラルネットワーク | |
| JPH06161983A (ja) | パターンマッチング方式 | |
| WO1991002321A1 (en) | Adaptive processor for multi-source data fusion |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| EXPY | Cancellation because of completion of term |