[go: up one dir, main page]

CN106203625A - 一种基于多重预训练的深层神经网络训练方法 - Google Patents

一种基于多重预训练的深层神经网络训练方法 Download PDF

Info

Publication number
CN106203625A
CN106203625A CN201610498635.8A CN201610498635A CN106203625A CN 106203625 A CN106203625 A CN 106203625A CN 201610498635 A CN201610498635 A CN 201610498635A CN 106203625 A CN106203625 A CN 106203625A
Authority
CN
China
Prior art keywords
training
layer
neural network
variable bias
sigm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610498635.8A
Other languages
English (en)
Other versions
CN106203625B (zh
Inventor
胡振
薛竹隐
贺成龙
宗士强
葛唯益
朱冰
李霄
徐琳
俞露
王羽
姜晓夏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
CETC 28 Research Institute
Original Assignee
CETC 28 Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by CETC 28 Research Institute filed Critical CETC 28 Research Institute
Priority to CN201610498635.8A priority Critical patent/CN106203625B/zh
Publication of CN106203625A publication Critical patent/CN106203625A/zh
Application granted granted Critical
Publication of CN106203625B publication Critical patent/CN106203625B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Character Discrimination (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于多重预训练的深层神经网络训练方法,在所述方法中,深层神经网络的预训练过程是通过依次用受限玻尔兹曼机和去噪自编码器为模型进行预训练来完成的。通过这种方式,使得预训练的结果,即深层神经网络参数的初始值具有不同模型的特点,从而为之后的训练提供一个更好的初始模型。由于方法只对不同预训练阶段开始时参数的值有约束,因此所述方法可以扩展到其他的逐层预训练模型上,如自编码器、收缩自编码器等。

Description

一种基于多重预训练的深层神经网络训练方法
技术领域
本发明属于深层神经网络技术领域,尤其涉及一种基于多重预训练的深层神经网络训练方法,
背景技术
深层神经网络被广泛应用于图像识别、语音识别、自然语言处理等领域,目前对深层神经网络的训练方法是通过单一模型进行预训练,得到具有一定特性的网络权重初值,然后用反向传播算法来训练网络。由于不同的预训练模型具有不同的特性,因此在实际应用过程中需要尝试不同的预训练模型,然后综合比较各个模型所得到初始网络的性能,最终确定理想的预训练模型。
然而,有一些问题对深层神经网络权值的初始值的要求是复合的,即要求深层神经网络权值的初始值具有多重特性,而不仅仅是单一的特性。
例如,授权发明专利CN201210594536将SVM的训练方法引入到神经网络的训练方法中,提出OIN/SVM混合模型来替代反向传播算法在训练神经网络过程中的作用。而本发明保留了反向传播算法,同时在反向传播算法开始之前,利用多重预训练的方法,为神经网络找到一个合理的初始值。
发明内容
发明目的:本发明将多重预训练的思路引入到深层神经网络的训练过程中,使得深层神经网络权值的初始值具有较好的特性,进而使得后续的反向传播训练算法能够得到性能更好的模型。
本发明立足于解决这一类问题,提出用不同的预训练模型来确定深层神经网络权值的初始值,使深层神经网络权值的初始值具有不同模型的特点,从而更好地解决这一类问题。
技术方案:本发明公开了一种基于多重预训练的深层神经网络训练方法,包括如下步骤:
步骤1,随机选取神经网络的参数;
步骤2,用受限玻尔兹曼机对神经网络的参数进行逐层预训练;
步骤3,用去噪自编码器对神经网络的参数进行逐层预训练;
步骤4,用反向传播算法对神经网络的参数进行调整。
步骤1中,随机选取神经网络输入层和第一隐层之间的权值矩阵W、输入变量偏置b和隐变量偏置c。
步骤2包括如下步骤:
步骤2-1,输入权值矩阵W、输入变量偏置b和隐变量偏置c,随机选择M个训练样本(M的典型值取10),将这M个样本按行排列,形成一个M列的矩阵,记为x;
步骤2-2,计算sigm(Wx+b),sigm表示用西格玛函数逐一作用到向量Wx+b的每个元素上,西格玛函数的表达式为:
s i g m ( x ) = 1 1 + e - x ;
步骤2-3,以sigm(Wx+b)中的每一个元素为二项分布取1的概率,对每一个二项分布进行采样,得到隐变量h;
步骤2-4,计算sigm(WTh+c);
步骤2-5,以sigm(WTh+c)中的每一个元素为二项分布取1的概率,对每一个二项分布进行采样,得到重构的可见变量x’;
步骤2-6,计算sigm(Wx’+b);
步骤2-7,将权值矩阵W更新为W+∈(hxT-sigm(Wx’+b)x'T),
将输入变量偏置b更新为b+∈(h-sigm(Wx’+b)),
将隐变量偏置c更新为c+∈(x-x'),∈为学习步长(∈的典型值取0.01);
步骤2-8:重复步骤2-1~步骤2-7直到所有的样本都被选取过;
步骤2-9:重复步骤2-1~步骤2-8直到达到最大迭代次数,得到受限玻尔兹曼机预训练后的权值矩阵W、输入变量偏置b和隐变量偏置c。
步骤3包括如下步骤:
步骤3-1,在步骤2得到的权值矩阵W、输入变量偏置b和隐变量偏置c的基础上,随机选择M个训练样本(M的典型值取10),将这M个样本按行排列,形成一个M列的矩阵,记为x;
步骤3-2,对于每个样本,随机选取20%的元素设置为0,得到污染后的样本,记为x’;
步骤3-3,计算h=sigm(Wx’+b);
步骤3-4,计算误差e=||x-sigm(WTh+c)||2
步骤3-5,将权值矩阵W更新为
将输入变量偏置b更新为
将隐变量偏置c更新为其中表示e关于参数θ(θ可以是W、b或者c)的偏导数;
步骤3-6,重复步骤3-1~步骤3-5,直到所有的样本都被选取过;
步骤3-7,重复步骤3-1~步骤3-6直到达到最大迭代次数。
步骤4包括以下步骤:
步骤4-1,在步骤3得到的各层权值矩阵W、输入变量偏置b和隐变量偏置c的基础上,随机选择M个训练样本(M的典型值取10),将这M个样本按行排列,形成一个M列的矩阵,记为x,根据神经网络的计算公式,逐层计算各层神经网络节点的取值;
步骤4-2,根据反向传播公式,计算输出误差关于各层神经网络参数的梯度;
步骤4-3,选取学习步长∈(典型值为0.01),根据步骤4-2求取的梯度,对各层神经网络的参数进行更新。
所述方法通过受限玻尔兹曼机和去噪自编码器对深层神经网络进行预训练。受限玻尔兹曼机和去噪自编码器都是针对双层网络提出的预训练模型,即基于这两种模型的深层神经网络预训练过程都是逐层进行的。
所述方法首先用受限玻尔兹曼机对网络进行逐层的预训练,即视相邻两层神经网络为一个受限玻尔兹曼机;然后用去噪自编码器对网络进行逐层的预训练,即视相邻两层神经网络为一个去噪自编码器,算法框架如图1所示。
所述方法在预训练受限玻尔兹曼机时采取的是对比散度算法,在实际的优化过程中,梯度是共享的,即之前优化步骤的梯度会影响当前优化步骤中的梯度。
所述算法在预训练受限玻尔兹曼机时采取的优化函数是
max W , b , c L ( v ) = log Σ h e - vWh T - b T v - c T h Σ v Σ h e - vWh T - b T - b T v - c T h ,
其中v和h分别是受限玻尔兹曼机输入层和隐层节点的取值,W、b和c分别是两层之间的连接权值和偏置量。
所述算法在预训练受限玻尔兹曼机时的学习步长是0.01,每次处理的样本个数是10个(即M取值为10),预训练的迭代优化步数为100步,实验表明,这样一组参数得到的模型性能比较好,算法流程如图2所示。
所述算法在预训练去噪自编码器时采用的污染策略是随机选择一定比例的节点并将这些节点的值赋为0。
所述算法在预训练去噪自编码器时采取的优化函数是
min W , b , c | | s i g m ( W T s i g m ( W v ‾ + b ) + c ) - v | | 2
其中sigm表示sigmoid函数,是污染后的输入,v是干净的输入。优化目标是污染的信号经过去噪自编码器编码和解码之后得到的恢复信号与原始信号之间的平方误差。
所述算法在预训练去噪自编码器时污染比例为20%,学习步长是0.01,每次处理的样本个数是10个,预训练的迭代优化步数为100步,实验表明,这样一组参数得到的模型性能比较好,算法流程如图3所示。
所述算法在预训练深层神经网络时先逐层用受限玻尔兹曼机进行预训练,接着逐层用去噪自编码器进行预训练,最后用反向传播算法对网络的参数进行调整。
本发明提出的算法框架可以扩展至任意逐层的预训练模型,比如自编码器、收缩自编码器等,所述算法均可进行统一处理,并使得最终得到的预训练之后的网络具有这些模型的特性。
本发明还公开了一种根据前文所述方法的计算机手写字符识别中的应用,包括如下步骤:
第一步A:将数据划分为训练集(包含50000张手写字符图片)、验证集(包含10000张手写字符图片)和测试集(包含10000张手写字符图片);
第一步B:统一验证集中图片的尺寸为24像素*24像素;
第二步A:随机选取输入层和第一隐层之间的权值矩阵W(1)、输入变量偏置b(1)和隐变量偏置c(1)
第二步B:从训练集中选取10个样本作为输入变量,用对比散度算法,采取本发明中约定的参数对输入层和第一隐层之间的权值矩阵、输入变量偏置和隐变量偏置进行优化;
第二步C:重复第二步B,直到所有的训练样本都被选中过;
第二步D:根据神经网络的计算公式,利用输入变量,权值矩阵W(1)和输入变量偏置b(1)来计算第一隐层的变量的值,作为第一隐层和第二隐层构成的受限玻尔兹曼机的输入;
第三步:重复第二步的过程,优化第一隐层和第二隐层之间的权值矩阵W(2)、输入变量偏置b(2)和隐变量偏置c(2)
第四步:重复第二步的过程,优化第二隐层和第三隐层之间的权值矩阵W(3)、输入变量偏置b(3)和隐变量偏置c(3)
第五步A:从训练集中选取10个样本作为输入变量,以W(1)、b(1)和c(1)为初始值,根据去噪自编码器的优化函数和本发明所约定的参数,得到更新后的参数
第五步B:重复第五步A,直到所有的训练样本都被选中过;
第五步C:根据神经网络的计算公式,利用输入变量,更新后的权值矩阵和更新后的输入变量偏置来计算第一隐层的变量的值,作为第一隐层和第二隐层构成的受限玻尔兹曼机的输入;
第六步:重复第五步的过程,更新第一隐层和第二隐层之间的权值矩阵输入变量偏置和隐变量偏置
第七步:重复第五步的过程,更新第二隐层和第三隐层之间的权值矩阵输入变量偏置和隐变量偏置
第八步:以为初始值,随机选择第三隐层和输出层之间的参数W(4)和b(4),用反向传播算法对神经网络进行优化。
第九步:在验证集上测试优化后的神经网络的性能是否达到性能要求,如果没有,则重复第二~第八步。
有益效果:本发明与现有技术相比有如下优点:
1.本发明提出了新的预训练算法框架,综合利用了不同预训练模型的特性,使得预训练的结果具有不同模型的特性,从而具有更好的性能。在本方法中,神经网络被多种模型进行多重预训练,从而使得神经网络的参数初始值具有不同模型的特性,从而达到更好的训练效果。
2.支持收缩自编码器等其他逐层预训练模型的综合运用。
3.测试结果表明,选择合适的预训练策略可以提高模型的性能。
附图说明
下面结合附图和具体实施方式对本发明做更进一步的具体说明,本发明的上述和/或其他方面的优点将会变得更加清楚。
图1是本发明演示模型的训练过程。
图2是受限玻尔兹曼机的预训练过程。
图3是去噪自编码器的预训练过程。
图4是演示模型的结构。
具体实施方式
如图2所示,预训练受限玻尔兹曼机的算法。
初始化W、b和c(对于第一次预训练的模型而言,参数是随机初始化的,其他情况下参数选择上次预训练的结果),选取学习步长∈=0.01,设置迭代次数N=100,设置同时处理的样本数M=10。
第一步A:依次选择M个样本,记为x;
第一步B:计算sigm(Wx+b);
第一步C:以sigm(Wx+b)中的每一个元素为取1的概率,对每一个二项分布进行采样,得到隐变量h;
第一步D:计算sigm(WTh+c);
第一步E:以sigm(WTh+c)中的每一个元素为取1的概率,对每一个二项分布进行采样,得到重构的可见变量x’;
第一步F:计算sigm(Wx’+b);
第一步G:更新W←W+∈(hxT-sigm(Wx’+b)x'T)、b←b+∈(h-sigm(Wx’+b))、c←c+∈(x-x')。
第二步:重复第一步直到所有的样本都被选取过。
第三步:重复第一步和第二步100次。
如图3所示,预训练去噪自编码器的算法。
初始化W、b和c(对于第一次预训练的模型而言,参数是随机初始化的,其他情况下参数选择上次预训练的结果),选取学习步长∈=0.01,设置迭代次数N=100,设置同时处理的样本数M=10,设置污染的比例为20%。
第一步A:依次选择M个样本,记为x;
第一步B:对于每个样本,随机选取20%的元素设置为0,得到污染后的样本,记为x’;
第一步C:计算h=sigm(Wx’+b);
第一步D:计算误差e=||x-sigm(WTh+c)||2
第一步E:更新
第二步:重复第一步直到所有的样本都被选取过。
第三步:重复第一步和第二步100次。
如图1所示,演示模型的训练算法。
第一步:用受限玻尔兹曼机模型预训练,得到W(1)、b(1)和c(1)
第二步:用受限玻尔兹曼机模型预训练,得到W(2)、b(2)和c(2)
第三步:用受限玻尔兹曼机模型预训练,得到W(3)、b(3)和c(3)
第四步:用去噪自编码器模型预训练,得到
第五步:用去噪自编码器模型预训练,得到
第六步:用去噪自编码器模型预训练,得到
第七步:随机选取W(4)和b(4),以W(4)和b(4)为参数的初始值,利用反向传播算法对演示模型进行训练。
实施例
下面以三隐层神经网络为例介绍本发明在手写字符识别系统中的应用,网络结构如图4所示。
第一步A:将数据划分为训练集(包含50000张手写字符图片)、验证集(包含10000张手写字符图片)和测试集(包含10000张手写字符图片);
第一步B:统一图片的尺寸为24像素*24像素;
第二步A:随机选取输入层和第一隐层之间的权值矩阵W(1)、输入变量偏置b(1)和隐变量偏置c(1)
第二步B:从训练集中选取10个样本作为输入变量,用对比散度算法,采取本发明中约定的参数对输入层和第一隐层之间的权值矩阵、输入变量偏置和隐变量偏置进行优化;
第二步C:重复第二步B,直到所有的训练样本都被选中过;
第二步D:根据神经网络的计算公式,利用输入变量,权值矩阵W(1)和输入变量偏置b(1)来计算第一隐层的变量的值,作为第一隐层和第二隐层构成的受限玻尔兹曼机的输入;
第三步:重复第二步的过程,优化第一隐层和第二隐层之间的权值矩阵W(2)、输入变量偏置b(2)和隐变量偏置c(2)
第四步:重复第二步的过程,优化第二隐层和第三隐层之间的权值矩阵W(3)、输入变量偏置b(3)和隐变量偏置c(3)
第五步A:从训练集中选取10个样本作为输入变量,以W(1)、b(1)和c(1)为初始值,根据去噪自编码器的优化函数和本发明所约定的参数,得到更新后的参数
第五步B:重复第五步A,直到所有的训练样本都被选中过;
第五步C:根据神经网络的计算公式,利用输入变量,更新后的权值矩阵和更新后的输入变量偏置来计算第一隐层的变量的值,作为第一隐层和第二隐层构成的受限玻尔兹曼机的输入;
第六步:重复第五步的过程,更新第一隐层和第二隐层之间的权值矩阵输入变量偏置和隐变量偏置
第七步:重复第五步的过程,更新第二隐层和第三隐层之间的权值矩阵输入变量偏置和隐变量偏置
第八步:以为初始值,随机选择第三隐层和输出层之间的参数W(4)和b(4),用反向传播算法对神经网络进行优化。
第九步:在验证集上测试优化后的神经网络的性能是否达到性能要求,如果没有,则重复第二~第八步。本发明被应用到手写字符识别的应用中。在这一应用中,用于训练的图片为50000张,用于验证和测试的各10000张。本发明得到的神经网络在正确率上比用单一模型来进行预训练的神经网络提高了3%。
本发明提供了一种基于多重预训练的深层神经网络训练方法,具体实现该技术方案的方法和途径很多,以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。本实施例中未明确的各组成部分均可用现有技术加以实现。

Claims (5)

1.一种基于多重预训练的深层神经网络训练方法,其特征在于,包括以下步骤:
步骤1,随机选取神经网络的参数;
步骤2,用受限玻尔兹曼机对神经网络的参数进行逐层预训练;
步骤3,用去噪自编码器对神经网络的参数进行逐层预训练;
步骤4,用反向传播算法对神经网络的参数进行调整。
2.根据权利要求1所述的方法,其特征在于,步骤1中,随机选取神经网络输入层和第一隐层之间的权值矩阵W、输入变量偏置b和隐变量偏置c。
3.根据权利要求2所述的方法,其特征在于,步骤2包括如下步骤:
步骤2-1,输入权值矩阵W、输入变量偏置b和隐变量偏置c,随机选择M个训练样本,将这M个样本按行排列,形成一个M列的矩阵,记为x;
步骤2-2,计算sigm(Wx+b),sigm表示用西格玛函数逐一作用到向量Wx+b的每个元素上,西格玛函数的表达式为:
s i g m ( x ) = 1 1 + e - x ;
步骤2-3,以sigm(Wx+b)中的每一个元素为二项分布取1的概率,对每一个二项分布进行采样,得到隐变量h;
步骤2-4,计算sigm(WTh+c);
步骤2-5,以sigm(WTh+c)中的每一个元素为二项分布取1的概率,对每一个二项分布进行采样,得到重构的可见变量x’;
步骤2-6,计算sigm(Wx’+b);
步骤2-7,将权值矩阵W更新为W+∈(hxT-sigm(Wx’+b)x′T),
将输入变量偏置b更新为b+∈(h-sigm(Wx’+b)),
将隐变量偏置c更新为c+∈(x-x′),∈为学习步长;
步骤2-8:重复步骤2-1~步骤2-7直到所有的样本都被选取过;
步骤2-9:重复步骤2-1~步骤2-8直到达到最大迭代次数,得到受限玻尔兹曼机预训练后的权值矩阵W、输入变量偏置b和隐变量偏置c。
4.根据权利要求3所述的方法,其特征在于,步骤3包括如下步骤:
步骤3-1,在步骤2得到的权值矩阵W、输入变量偏置b和隐变量偏置c的基础上,随机选择M个训练样本,将这M个样本按行排列,形成一个M列的矩阵,记为x;
步骤3-2,对于每个样本,随机选取20%的元素设置为0,得到污染后的样本,记为x’;
步骤3-3,计算h=sigm(Wx’+b);
步骤3-4,计算误差e=||x-sigm(WTh+c)||2
步骤3-5,将权值矩阵W更新为
将输入变量偏置b更新为
将隐变量偏置c更新为其中表示e关于参数θ的偏导数;
步骤3-6,重复步骤3-1~步骤3-5,直到所有的样本都被选取过;
步骤3-7,重复步骤3-1~步骤3-6直到达到最大迭代次数。
5.根据权利要求4所述的方法,其特征在于,步骤4包括如下步骤:
步骤4-1,在步骤3得到的各层权值矩阵W、输入变量偏置b和隐变量偏置c的基础上,随机选择M个训练样本,将这M个样本按行排列,形成一个M列的矩阵,记为x,根据神经网络的计算公式,逐层计算各层神经网络节点的取值;
步骤4-2,根据反向传播公式,计算输出误差关于各层神经网络参数的梯度;
步骤4-3,选取学习步长∈,根据步骤4-2求取的梯度,对各层神经网络的参数进行更新。
CN201610498635.8A 2016-06-29 2016-06-29 一种基于多重预训练的深层神经网络训练方法 Active CN106203625B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610498635.8A CN106203625B (zh) 2016-06-29 2016-06-29 一种基于多重预训练的深层神经网络训练方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610498635.8A CN106203625B (zh) 2016-06-29 2016-06-29 一种基于多重预训练的深层神经网络训练方法

Publications (2)

Publication Number Publication Date
CN106203625A true CN106203625A (zh) 2016-12-07
CN106203625B CN106203625B (zh) 2019-08-02

Family

ID=57462990

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610498635.8A Active CN106203625B (zh) 2016-06-29 2016-06-29 一种基于多重预训练的深层神经网络训练方法

Country Status (1)

Country Link
CN (1) CN106203625B (zh)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106782511A (zh) * 2016-12-22 2017-05-31 太原理工大学 修正线性深度自编码网络语音识别方法
CN106991139A (zh) * 2017-03-17 2017-07-28 广东蜂助手网络技术股份有限公司 一种基于人工神经网络的应用分发平台作弊检测方法
CN107633301A (zh) * 2017-08-28 2018-01-26 广东工业大学 一种bp神经网络回归模型的训练测试方法及其应用系统
CN107657250A (zh) * 2017-10-30 2018-02-02 四川理工学院 轴承故障检测及定位方法及检测定位模型实现系统和方法
CN107729393A (zh) * 2017-09-20 2018-02-23 齐鲁工业大学 基于混合自动编码器深度学习的文本分类方法及系统
WO2018121798A1 (zh) * 2016-12-30 2018-07-05 上海寒武纪信息科技有限公司 基于深度自动编码器的视频编解码装置及方法
CN108364063A (zh) * 2018-01-24 2018-08-03 福州瑞芯微电子股份有限公司 一种基于权值分配资源的神经网络训练方法和装置
CN109214386A (zh) * 2018-09-14 2019-01-15 北京京东金融科技控股有限公司 用于生成图像识别模型的方法和装置
CN109214193A (zh) * 2017-07-05 2019-01-15 阿里巴巴集团控股有限公司 数据加密、机器学习模型训练方法、装置以及电子设备
CN109583499A (zh) * 2018-11-30 2019-04-05 河海大学常州校区 一种基于无监督sdae网络的输电线路背景目标分类系统
CN109949180A (zh) * 2019-03-19 2019-06-28 山东交通学院 一种船舶冷热电联供系统的冷热电负荷预测方法及系统
CN110108806A (zh) * 2019-04-04 2019-08-09 广州供电局有限公司 基于概率信息压缩的变压器油色谱数据表示方法
CN112509559A (zh) * 2021-02-03 2021-03-16 北京世纪好未来教育科技有限公司 音频识别方法、模型训练方法、装置、设备及存储介质
CN112562656A (zh) * 2020-12-16 2021-03-26 咪咕文化科技有限公司 一种信号分类方法、装置、设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101398894A (zh) * 2008-06-17 2009-04-01 浙江师范大学 机动车车牌自动识别方法及其实现装置
CN101944174A (zh) * 2009-07-08 2011-01-12 西安电子科技大学 车牌字符的识别方法
CN104299006A (zh) * 2014-07-23 2015-01-21 中国传媒大学 一种基于深度神经网络的车牌识别方法
WO2015011688A2 (en) * 2013-07-26 2015-01-29 Isis Innovation Ltd. Method of training a neural network

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101398894A (zh) * 2008-06-17 2009-04-01 浙江师范大学 机动车车牌自动识别方法及其实现装置
CN101944174A (zh) * 2009-07-08 2011-01-12 西安电子科技大学 车牌字符的识别方法
WO2015011688A2 (en) * 2013-07-26 2015-01-29 Isis Innovation Ltd. Method of training a neural network
CN104299006A (zh) * 2014-07-23 2015-01-21 中国传媒大学 一种基于深度神经网络的车牌识别方法

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106782511A (zh) * 2016-12-22 2017-05-31 太原理工大学 修正线性深度自编码网络语音识别方法
WO2018121798A1 (zh) * 2016-12-30 2018-07-05 上海寒武纪信息科技有限公司 基于深度自动编码器的视频编解码装置及方法
CN106991139A (zh) * 2017-03-17 2017-07-28 广东蜂助手网络技术股份有限公司 一种基于人工神经网络的应用分发平台作弊检测方法
CN109214193A (zh) * 2017-07-05 2019-01-15 阿里巴巴集团控股有限公司 数据加密、机器学习模型训练方法、装置以及电子设备
CN107633301A (zh) * 2017-08-28 2018-01-26 广东工业大学 一种bp神经网络回归模型的训练测试方法及其应用系统
CN107729393A (zh) * 2017-09-20 2018-02-23 齐鲁工业大学 基于混合自动编码器深度学习的文本分类方法及系统
CN107657250A (zh) * 2017-10-30 2018-02-02 四川理工学院 轴承故障检测及定位方法及检测定位模型实现系统和方法
CN107657250B (zh) * 2017-10-30 2020-11-24 四川理工学院 轴承故障检测及定位方法及检测定位模型实现系统和方法
CN108364063B (zh) * 2018-01-24 2019-09-27 福州瑞芯微电子股份有限公司 一种基于权值分配资源的神经网络训练方法和装置
CN108364063A (zh) * 2018-01-24 2018-08-03 福州瑞芯微电子股份有限公司 一种基于权值分配资源的神经网络训练方法和装置
CN109214386A (zh) * 2018-09-14 2019-01-15 北京京东金融科技控股有限公司 用于生成图像识别模型的方法和装置
CN109583499A (zh) * 2018-11-30 2019-04-05 河海大学常州校区 一种基于无监督sdae网络的输电线路背景目标分类系统
CN109583499B (zh) * 2018-11-30 2021-04-16 河海大学常州校区 一种基于无监督sdae网络的输电线路背景目标分类系统
CN109949180A (zh) * 2019-03-19 2019-06-28 山东交通学院 一种船舶冷热电联供系统的冷热电负荷预测方法及系统
CN110108806A (zh) * 2019-04-04 2019-08-09 广州供电局有限公司 基于概率信息压缩的变压器油色谱数据表示方法
CN110108806B (zh) * 2019-04-04 2022-03-22 广东电网有限责任公司广州供电局 基于概率信息压缩的变压器油色谱数据表示方法
CN112562656A (zh) * 2020-12-16 2021-03-26 咪咕文化科技有限公司 一种信号分类方法、装置、设备及存储介质
CN112509559A (zh) * 2021-02-03 2021-03-16 北京世纪好未来教育科技有限公司 音频识别方法、模型训练方法、装置、设备及存储介质
CN112509559B (zh) * 2021-02-03 2021-04-13 北京世纪好未来教育科技有限公司 音频识别方法、模型训练方法、装置、设备及存储介质

Also Published As

Publication number Publication date
CN106203625B (zh) 2019-08-02

Similar Documents

Publication Publication Date Title
CN106203625B (zh) 一种基于多重预训练的深层神经网络训练方法
EP3570222B1 (en) Information processing device and method, and computer readable storage medium
CN108052512B (zh) 一种基于深度注意力机制的图像描述生成方法
US20220004870A1 (en) Speech recognition method and apparatus, and neural network training method and apparatus
CN111681178B (zh) 一种基于知识蒸馏的图像去雾方法
CN106650789B (zh) 一种基于深度lstm网络的图像描述生成方法
CN105224984B (zh) 一种基于深度神经网络的数据类别识别方法及装置
CN108985317A (zh) 一种基于可分离卷积和注意力机制的图像分类方法
CN113408743A (zh) 联邦模型的生成方法、装置、电子设备和存储介质
CN108021983A (zh) 神经架构搜索
CN110291540A (zh) 批再归一化层
JP2019511033A5 (zh)
KR20190016539A (ko) 신경망 및 신경망 트레이닝 방법
CN109964238A (zh) 使用神经网络生成视频帧
CN112905894B (zh) 一种基于增强图学习的协同过滤推荐方法
EP4664416A1 (en) Training method and apparatus for liveness detection model, and medium, electronic device and product
CN113628615B (zh) 语音识别方法、装置、电子设备及存储介质
CN106650933A (zh) 基于协同进化和反向传播的深度神经网络优化方法
CN110168572A (zh) 信息处理方法、信息处理装置、计算机可读存储介质
EP4095757A1 (en) Learning deep latent variable models by short-run mcmc inference with optimal transport correction
CN113177393B (zh) 改进针对网页结构理解的预训练语言模型的方法和装置
CN106022287A (zh) 一种基于深度学习与字典表示的跨年龄人脸验证方法
CN115455985A (zh) 一种基于机器阅读理解的自然语言系统的处理方法
CN114492758A (zh) 使用逐层损失来训练神经网络
CN114860877B (zh) 一种基于知识图谱关系预测的问题链生成方法及系统

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant