[go: up one dir, main page]

CN1623169A - 具有通过学习率的非单调变化改进性能的自组织特征映射 - Google Patents

具有通过学习率的非单调变化改进性能的自组织特征映射 Download PDF

Info

Publication number
CN1623169A
CN1623169A CNA038025167A CN03802516A CN1623169A CN 1623169 A CN1623169 A CN 1623169A CN A038025167 A CNA038025167 A CN A038025167A CN 03802516 A CN03802516 A CN 03802516A CN 1623169 A CN1623169 A CN 1623169A
Authority
CN
China
Prior art keywords
learning rate
weight
function
training
occurrence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CNA038025167A
Other languages
English (en)
Inventor
S·V·R·古特塔
V·菲洛明
M·特拉科维
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips Electronics NV filed Critical Koninklijke Philips Electronics NV
Publication of CN1623169A publication Critical patent/CN1623169A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2137Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on criteria of topology preservation, e.g. multidimensional scaling or self-organising maps
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0499Feedforward networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/0895Weakly supervised learning, e.g. semi-supervised or self-supervised learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Machine Translation (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Measurement Of Resistance Or Impedance (AREA)
  • Cable Transmission Systems, Equalization Of Radio And Reduction Of Echo (AREA)
  • Feedback Control In General (AREA)
  • Character Discrimination (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

用来更新自排序特征映射的权重的学习率由将某一类型的扰动注入值中的过程来确定,以便其不随每个训练出现时间单调地减小。例如,学习率可以根据伪随机过程生成。该结果是突触权重的更快速收敛。

Description

具有通过学习率的非单调变化改进性能的自组织特征映射
本发明涉及为神经网络的自组织特征映射(SOFM),将任意维数的输入变换成受拓扑(邻域保留)约束的一或二维离散映射,以及更具体地说,涉及权向量的初始值为随机的这种SOFM。
神经网络占据机器智能中很大的研究学科。人工神经网络是由动物大脑的互连、并行结构激发的信息处理设备。它们采用具有数学模型集的软件或硬件网络的形式,这些数学模型模仿一些所观察的神经系统的特性以及自适应生物学习(biological learning)的模拟。通常,它们由能用软件或硬件实现的大量互连处理元件组成,与动物大脑的神经元类似。用认为类似于突触的形式加权这些处理元件间的连接。
训练神经网络包含调整存在于神经元(即权值)间的“突触”连接。通过公开一组输入/输出数据执行训练,其中训练算法迭代地调整连接权重。这些连接权重存储解决特殊问题所需的知识。
神经网络正应用于越来越多的实际问题,包括非常复杂的问题。它们特别适合于具有许多输入的模式识别和分类问题,诸如语音识别、字符和信号识别以及功能预测和系统建模,其中物理过程不被理解或相当复杂。
有多种神经网络。一些更普遍的神经网络包括多层认知器,通常通过误差算法、学习向量量化、径向基函数、Hopfield和SOFM的后向传播来训练。根据通过网络如何处理数据,一些被划分成前馈而其他划分成递归(即,实现反馈)。神经网络的另一特征是训练其的机制。一些使用称为监督训练的技术而其他的称为无人监督或自组织。在监督训练中,由指示过程引导网络,而在无人监督的算法中,基于向算法提供输入的属性,将数据聚类成类似的组。
SOFM或Kohonen人工神经网络是一种无人监督的神经网络。在无人监督的学习中,向例子或输入向量以及所调整的内部参数公开未训练的神经网络。在SOFM中,网络的所有神经元接收相同的输入。节点参加与它们的邻域的竞争以及在自学习过程的每个阶段,具有最多活动性的一个节点“获胜”。学习是基于获胜方神经元的概念。
无人监视的学习允许基于在n维超空间中对象所感知的接近,将这些对象组成一起(其中,n为变量或在每个对象上所做的观察的数量)。因此,这些方法尽管在某些意义上是定量的,但最好被看作定性的,因为它们的主要目的仅是区分对象或种群。
参考图1,SOFM通过人工神经元的自组织网络,提供划分数据的客观方法。这里有两层,输入层110和竞争层100。输入层的每个节点都可以连接(如用连接器120所示)到竞争层的整个节点集。在示例性的结构中,每个神经元可以连接到栅格上的其八个最近的邻域。神经元存储一组权重(权向量),每个权重对应于数据中的一个输入。Kohonen网络的目的是将任意维数N的输入向量(模式)映射到位于任意维数,但通常为1或2维的竞争层中的离散映射。算法调整权重以便在输入空间中彼此接近的模式应当在映射中彼此接近:它们应当是拓扑排序的。
学习过程如下:首先,将用于每个输出单元的权重通常初始化为随机初始值。执行迭代过程,当权重变化可忽略时结束。对多个输入模式的每一个,识别获胜输出节点和获胜方的附近的所有单元以及更新用于所有这些节点的权向量。获胜输出单元仅是具有权向量的单元,该权向量具有到输入模式的最小欧几里德距离。该单元的邻域被定义为在映射上离那个单元某个距离内的所有单元(不在权空间重)。如果该邻域的大小为1,那么所有单元在水平或垂直上离在其邻域内的任何单元都不超过1。更新在获胜单元(包括获胜单元本身)的邻域中的每个单元的权重以致在该邻域中的每个单元更接近地移向输入模式。当执行迭代时,降低学习率。如果很好地选择参数,最终网络应当捕获输入数据中的固有聚类(natural cluster)。
管理权重变更的大小的因子被称为学习率。根据下式对权向量的每一项进行调整:
ΔWi,j=α(Ij-Wi,j)sind/(2d)
其中Wi,j是第i个节点的第j个权重,α是学习率,Ij是输入向量的第j个分量,以及d是当前节点和获胜者间的距离。上述公式是本领域已知的多个公式中的一个以及在随后部分中论述的本发明可以利用它或任何其他的公式。如上所述,训练过程继续直到权重中的变化低于连续迭代中的某一预定值为止。
“学习规则”(权重更新算法)的效果是在由训练集填充的n维空间的区域上平均分布神经元。具有最接近于指定输入模式的权向量的神经元将为该模式以及它最接近的任何其他输入模式获胜。然后将允许相同节点获胜的输入模式视为在相同组中,以及当描绘它们关系的映射时,一条线围住它们。在最终映射中,可以精密地检查训练集中项目之间的关系以及即使对高维输入空间中的复杂结构,也能直观化这些关系。
产生解决方案的过程有两个阶段。在初始第一阶段中,在现有技术中,学习率以接近于1的高值开始,以及逐渐单调地下降。下降率可以是指数、线性或一些其他的形式,以及根据现有技术,特定模式通常不被视为特别重要。在称为“排序阶段”的初始阶段期间,进行权向量的拓扑排序。随后是长的收敛阶段并且其与映射的微调有关。学习率维持在低值(最好低于例如0.1)以及通过每次迭代单调和逐渐下降。
在任何情况下都不能确保用于任何指定问题的SOFM解决方案的质量。在输入向量是高维且复杂的情况下,结果可能会花费很长的时间以便收敛以及甚至可能产生很差德最终结果。
在SOFM中,在迭代过程的进展期间,不是单调地降低学习率,而是以随机或不定方式选择学习率。已经通过实验发现在许多实例中,这增加了收敛率。根据现有技术,学习率应当随时间改变,但单调下降。然而,已经发现至少在一些情形中,特别是在更高维输入空间的情况下,学习率的不定变化,至少在初始阶段期间导致改进的性能。
将参考附图,结合某些优选实施例描述本发明,以便更全面地理解本发明。参考附图,强调通过举例以及仅为示例论述本发明的优选实施例的目的,以及为了提供认为最有用和容易理解本发明的原理和概念方面的描述提供所示细节。在这一方面,除了对本发明的基本理解来说必要的之外,不打算更详细地显示本发明的结构细节,结合附图所做的描述对本领域的技术人员来说如何实际上实现本发明的几种形式是显而易见的。
图1是根据现有技术和与本发明的实施例一致的自排序特征映射的示意表示。
图2是表示根据本发明实施例的用于实现本发明的算法的流程图。
图3是随着训练SOFM的进度,选择随机生成学习率参数的示例说明。
图4是随着训练SOFM的进度,选择随机生成学习率参数的另一方式的示例说明。
参考图2,在步骤S10中,用于实现本发明的算法从初始化权向量开始。用于所有权向量的随机值是典型选择。在步骤S20中,从用于训练SOFM的输入向量库随机提取样本输入向量。在步骤S30中,根据最小欧几里德距离值,将选定向量施加到输入节点以及识别获胜竞争层节点:
D i = Σ j = 1 n ( I j - W i , j ) 2
其中,Wi,j是第i个节点的第j个权重,Ij是输入向量的第j个分量,以及Di是第i个节点的距离。具有最低距离值的节点是获胜者。在步骤S40中,产生学习率的随机值。使用这一学习率来更新获胜节点和相邻节点的权重。
在步骤S50中,根据下述公式,更新获胜节点和所有相邻的节点。
ΔWi,j=α(Ij-Wi,j)sind/(2d)
其中Wi,j是第i个节点的第j个权重,α是随机学习率,Ij是输入向量的第j个分量,以及d是当前节点和获胜者间的距离。如所述,这一训练过程继续直到权重中的变化低于连续迭代中的某一预定值为止。在步骤S60执行测试。
注意上述公式是用于描述实施例目的的例子。还有可以用于更新权重的其他方式并且本发明不限于任何特定的一个公式。
现在参考图3,能以符合本发明的各种方式执行生成学习率的连续值。优选地,随着模拟进展,随机率在其范围内的值应当变得更小。在图3所示的一个示例性实施例中,学习率是随着训练过程进展逐渐减小的边界161和162间的随机值。这不需要在范围上是单调降低,如图3中的160处所示,但学习率优选地在值方面变得更小,以及随着模拟进展,在更小的范围内。在另一实施例中,在类似的范围160上改变学习率,但是循环或伪随机地改变。优选地,学习率最初在1左右改变并且按几个数量级降低,落到接近于零的值。
参考图4,用于产生的另一备选方案可以允许在训练的排序阶段期间,随机改变学习率(如170所示),以及对收敛阶段,切换到单调降低学习率(180处所示)。
尽管示出和描述了本发明的特定实施例,将理解到并不打算将本发明局限于这些优选实施例,并且对本领域的技术人员来说,在不背离本发明的精神和范围的情况下,可以做出各种改变和改进。因此,本发明意图覆盖可以包括在本发明的精神和范围内的替换方案、改进和等效物。

Claims (14)

1.一种用于训练自排序映射的方法,包括步骤:
初始化自排序映射的权重集;
在许多训练出现时间(epoch)反复训练所述权重;
对于至少多个所述出现时间,所述反复训练步骤包括基于根据函数生成的学习率更新所述权重,所述函数以不同于随训练出现时间单调减小值的方式改变。
2.如权利要求1所述的方法,其特征在于,所述反复训练步骤包括基于根据随机或伪随机函数生成的学习率,更新所述权重。
3.如权利要求2所述的方法,其特征在于,所述反复训练步骤包括基于根据所述学习率可以在其范围内的值随训练出现时间减小的函数生成的学习率更新所述权重。
4.如权利要求2所述的方法,其特征在于,所述反复训练步骤包括基于根据所述学习率在数值上倾向于随训练出现时间减小的函数生成的学习率更新所述权重。
5.如权利要求1所述的方法,其特征在于,所述反复训练步骤包括基于根据所述学习率可以在其范围内的值随训练出现时间减小的函数生成的学习率更新所述权重。
6.如权利要求5所述的方法,其特征在于,所述反复训练步骤包括基于根据所述学习率在数值上倾向于随训练出现时间减小的函数生成的学习率更新所述权重。
7.如权利要求1所述的方法,其特征在于,所述反复训练步骤包括基于根据所述学习率在数值上倾向于随训练出现时间减小的函数生成的学习率更新所述权重。
8.一种训练自排序特征映射的方法,包括步骤:
选择用于初始权向量的随机值;
从训练样本向量集提取样本并且将其施加到所述自排序特征映射的输入节点上;
根据最小的距离标准,识别所述自排序特征映射的获胜竞争节点;
调整至少所述获胜节点的突触权重;
所述调整步骤包括根据不同于随训练出现时间单调变化的函数的函数,选择用于更新所述突触权重的学习率的值;
反复重复所述提取、识别以及调整步骤。
9.如权利要求8所述的方法,其特征在于,所述调整步骤包括基于根据随机或伪随机函数生成的学习率,更新所述权重。
10.如权利要求9所述的方法,其特征在于,所述调整步骤包括基于根据所述学习率可以在其范围内的值随训练出现时间减小的函数生成的学习率更新所述权重。
11.如权利要求9所述的方法,其特征在于,所述调整步骤包括基于根据所述学习率在数值上倾向于随训练出现时间减小的函数生成的学习率更新所述权重。
12.如权利要求8所述的方法,其特征在于,所述调整步骤包括基于根据所述学习率可以在其范围内的值随训练出现时间减小的函数生成的学习率更新所述权重。
13.如权利要求12所述的方法,其特征在于,所述调整步骤包括基于根据所述学习率在数值上倾向于随训练出现时间减小的函数生成的学习率更新所述权重。
14.如权利要求8所述的方法,其特征在于,所述调整步骤包括基于根据所述学习率在数值上倾向于随训练出现时间减小的函数生成的学习率更新所述权重。
CNA038025167A 2002-01-22 2003-01-21 具有通过学习率的非单调变化改进性能的自组织特征映射 Pending CN1623169A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US10/055,352 US6965885B2 (en) 2002-01-22 2002-01-22 Self-organizing feature map with improved performance by non-monotonic variation of the learning rate
US10/055,352 2002-01-22

Publications (1)

Publication Number Publication Date
CN1623169A true CN1623169A (zh) 2005-06-01

Family

ID=21997266

Family Applications (1)

Application Number Title Priority Date Filing Date
CNA038025167A Pending CN1623169A (zh) 2002-01-22 2003-01-21 具有通过学习率的非单调变化改进性能的自组织特征映射

Country Status (8)

Country Link
US (1) US6965885B2 (zh)
EP (1) EP1485814A2 (zh)
JP (1) JP2005516282A (zh)
KR (1) KR20040075101A (zh)
CN (1) CN1623169A (zh)
AU (1) AU2003201125A1 (zh)
TW (1) TW200304096A (zh)
WO (1) WO2003063017A2 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103455843A (zh) * 2013-08-16 2013-12-18 华中科技大学 一种反馈型人工神经网络训练方法及计算系统

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4639784B2 (ja) * 2004-12-06 2011-02-23 ソニー株式会社 学習装置および学習方法、並びにプログラム
JP4201012B2 (ja) * 2006-04-06 2008-12-24 ソニー株式会社 データ処理装置、データ処理方法、およびプログラム
JP2007280054A (ja) * 2006-04-06 2007-10-25 Sony Corp 学習装置および学習方法、並びにプログラム
US7814038B1 (en) 2007-12-06 2010-10-12 Dominic John Repici Feedback-tolerant method and device producing weight-adjustment factors for pre-synaptic neurons in artificial neural networks
EP2472440B1 (en) 2011-01-04 2014-06-25 Siemens Aktiengesellschaft Method and system for diagnosis of plant status
US10769545B2 (en) 2014-06-17 2020-09-08 D-Wave Systems Inc. Systems and methods employing new evolution schedules in an analog computer with applications to determining isomorphic graphs and post-processing solutions
US10460237B2 (en) 2015-11-30 2019-10-29 International Business Machines Corporation Neuron-centric local learning rate for artificial neural networks to increase performance, learning rate margin, and reduce power consumption
US10599976B2 (en) * 2016-11-07 2020-03-24 International Business Machines Corporation Update of attenuation coefficient for a model corresponding to time-series input data
US11322073B2 (en) * 2018-09-21 2022-05-03 Dell Products, Lp Method and apparatus for dynamically optimizing gamma correction for a high dynamic ratio image
US11074344B2 (en) * 2018-12-19 2021-07-27 Intel Corporation Methods and apparatus to detect side-channel attacks
CN110705645A (zh) * 2019-10-09 2020-01-17 重庆医药高等专科学校 一种基于sofm神经网络的英语教学质量评估方法
JP7577486B2 (ja) 2020-09-10 2024-11-05 信越化学工業株式会社 Euvマスクブランク用多層反射膜付き基板、その製造方法及びeuvマスクブランク
JP7420027B2 (ja) 2020-09-10 2024-01-23 信越化学工業株式会社 Euvマスクブランク用多層反射膜付き基板、その製造方法及びeuvマスクブランク
US12254418B2 (en) 2022-03-29 2025-03-18 D-Wave Systems Inc. Systems and methods for heuristic algorithms with variable effort parameters

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5398302A (en) * 1990-02-07 1995-03-14 Thrift; Philip Method and apparatus for adaptive learning in neural networks
FR2668625A1 (fr) * 1990-10-30 1992-04-30 Thomson Csf Procede d'apprentissage automatique et reseau connexionniste multi-couches pour la mise en óoeuvre de ce procede.
US5235673A (en) * 1991-04-18 1993-08-10 International Business Machines Corporation Enhanced neural network shell for application programs
JPH05346915A (ja) * 1992-01-30 1993-12-27 Ricoh Co Ltd 学習機械並びにニューラルネットワークおよびデータ分析装置並びにデータ分析方法
US6173275B1 (en) * 1993-09-20 2001-01-09 Hnc Software, Inc. Representation and retrieval of images using context vectors derived from image information elements
US5819245A (en) * 1995-09-05 1998-10-06 Motorola, Inc. Method of organizing data into a graphically oriented format
US5809490A (en) * 1996-05-03 1998-09-15 Aspen Technology Inc. Apparatus and method for selecting a working data set for model development
JP3647584B2 (ja) * 1996-12-26 2005-05-11 富士通株式会社 学習型自己定位装置
US20010034686A1 (en) * 1997-12-10 2001-10-25 Eder Jeff Scott Method of and system for defining and measuring the real options of a commercial enterprise
US5933818A (en) * 1997-06-02 1999-08-03 Electronic Data Systems Corporation Autonomous knowledge discovery system and method
EP1017199B1 (en) * 1998-12-29 2004-09-15 International Business Machines Corporation A method and system for classifying network devices in virtual LANs
US6477469B2 (en) * 2001-01-08 2002-11-05 Halliburton Energy Services, Inc. Coarse-to-fine self-organizing map for automatic electrofacies ordering

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103455843A (zh) * 2013-08-16 2013-12-18 华中科技大学 一种反馈型人工神经网络训练方法及计算系统
CN103455843B (zh) * 2013-08-16 2016-03-02 华中科技大学 一种反馈型人工神经网络训练方法及计算系统

Also Published As

Publication number Publication date
EP1485814A2 (en) 2004-12-15
US20030140019A1 (en) 2003-07-24
TW200304096A (en) 2003-09-16
WO2003063017A3 (en) 2004-07-01
WO2003063017A2 (en) 2003-07-31
KR20040075101A (ko) 2004-08-26
AU2003201125A1 (en) 2003-09-02
US6965885B2 (en) 2005-11-15
JP2005516282A (ja) 2005-06-02

Similar Documents

Publication Publication Date Title
Ünal et al. Evolutionary design of neural network architectures: a review of three decades of research
Hazan et al. Unsupervised learning with self-organizing spiking neural networks
US5832466A (en) System and method for dynamic learning control in genetically enhanced back-propagation neural networks
Hinton To recognize shapes, first learn to generate images
Földiak Forming sparse representations by local anti-Hebbian learning
CN1623169A (zh) 具有通过学习率的非单调变化改进性能的自组织特征映射
US6269351B1 (en) Method and system for training an artificial neural network
Kulkarni et al. Dynamic grouping of parts in flexible manufacturing systems—a self-organizing neural networks approach
Bodyanskiy Computational intelligence techniques for data analysis
Kowaliw et al. Artificial neurogenesis: An introduction and selective review
Zhang et al. Intelligent Information Processing with Matlab
Ishibuchi et al. Linguistic rule extraction by genetics-based machine learning
JP2001051968A (ja) ニューラルネットワーク構築方法及びニューラルネットワーク処理装置
Boniecki The Kohonen neural network in classification problems solving in agricultural engineering
Dobrovska et al. Development Of The Classifier Based On A Multilayer Perceptron Using Genetic Algorithm And Cart Decision Tree
Leoshchenko et al. Adaptive Mechanisms for Parallelization of the Genetic Method of Neural Network Synthesis
Nejad Evolutionary Models for Adaptive Artificial Neural Networks in Accounting and Finance Trends
Markowska-Kaczmar et al. GA-based Pareto optimization for rule extraction from neural networks
Szwarcman et al. Q-NAS revisited: Exploring evolution fitness to improve efficiency
Ramazzotti for the Analysis of Complex Phenomena. Analytical Archaeology of Artificial Adaptive Systems.
Ismail Training and optimization of product unit neural networks
Koutník et al. Temporal hebbian self-organizing map for sequences
Bhatnagar Modelling synaptic rewiring in brain-like neural networks for representation learning
Ranganathan et al. Self-organization in artificial intelligence and the brain
Huang et al. HiCEFS—A hierarchical coevolutionary approach for the dynamic generation of fuzzy system

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication