CN114897165B - 神经网络搜索方法和装置 - Google Patents
神经网络搜索方法和装置 Download PDFInfo
- Publication number
- CN114897165B CN114897165B CN202210628804.0A CN202210628804A CN114897165B CN 114897165 B CN114897165 B CN 114897165B CN 202210628804 A CN202210628804 A CN 202210628804A CN 114897165 B CN114897165 B CN 114897165B
- Authority
- CN
- China
- Prior art keywords
- neural network
- value
- processed
- parameters
- parameter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
Abstract
本公开提供一种神经网络搜索方法和装置,涉及可信人工智能领域。神经网络搜索方法包括:利用预训练模型对训练样本进行处理以生成扰动信息;将训练样本和扰动信息进行叠加以生成对抗样本;确定待处理神经网络中的全部参数中的每个参数对待处理神经网络的表达能力值的影响度和收敛速度值的影响度;按照第一排序规则,根据表达能力值的影响度对全部参数进行排序以得到第一排序结果;按照第二排序规则,根据收敛速度值的影响度对全部参数进行排序以得到第二排序结果;根据每个参数在第一排序结果中的序号和在第二排序结果中的序号确定剪枝评估效果;删除剪枝评估效果最差的预设数量个参数以得到目标神经网络;利用目标神经网络进行对抗训练。
Description
技术领域
本公开涉及可信人工智能领域,尤其涉及自动机器学习领域,特别涉及一种神经网络搜索方法和装置。
背景技术
目前,无论是人脸识别、自动驾驶、图像分类检索、推荐系统等领域,深度学习都取得了不俗的成果,但是随之而来的是对深度学习算法安全性的担忧,研究显示通过恶意算法生成的图片或者特殊标记(即对抗样本)可以让深度学习系统做出错误判断,如让自动驾驶系统误判断路标,人脸支付系统误识别支付人,这对于安全性要求较高的领域会产生巨大的威胁。为了解决该问题,在相关技术中,一种方式是把精力集中在模型的训练方法上,通过不同的对抗训练方式提升模型鲁棒性。另一种方式是通过神经网络搜索技术进行搜索鲁棒神经网络结构。
发明内容
发明人注意到,上述第一种方式的缺点是训练时间过长,模型收敛速度慢,训练难度大,且很多场景受限于参数规模,能够达到的鲁棒性有限。上述第二种方式的缺点是搜索成本很高,导致在很多场景下完全无法承受搜索成本。
据此,本公开提供一种神经网络搜索方案,能够有效搜索出具有高鲁棒性的神经网络结构,从而更好地解决神经网络的安全问题。
根据本公开实施例的第一方面,提供一种神经网络搜索方法,包括:利用预训练模型对训练样本进行处理,以生成扰动信息;将所述训练样本和所述扰动信息进行叠加,以生成对抗样本;利用所述对抗样本,确定所述待处理神经网络中的全部参数中的每个参数对所述待处理神经网络的表达能力值的影响度和收敛速度值的影响度;按照第一排序规则,根据表达能力值的影响度对所述全部参数进行排序以得到第一排序结果;按照第二排序规则,根据收敛速度值的影响度对所述全部参数进行排序以得到第二排序结果,其中所述第一排序规则与所述第二排序规则相反;根据所述每个参数在所述第一排序结果中的序号和在所述第二排序结果中的序号确定所述每个参数的剪枝评估效果;删除所述剪枝评估效果最差的预设数量个参数,以得到目标神经网络;利用所述目标神经网络进行对抗训练。
在一些实施例中,利用所述对抗样本,确定所述待处理神经网络中的全部参数中的每个参数对所述待处理神经网络的表达能力值的影响度和收敛速度值的影响度包括:将所述对抗样本输入待处理神经网络,计算所述待处理神经网络的表达能力值R0和收敛速度值H0;根据所述表达能力值R0,计算所述待处理神经网络中的全部参数中的每个参数对所述待处理神经网络的表达能力值的影响度;根据所述收敛速度值H0,计算所述每个参数对所述待处理神经网络的收敛速度值的影响度。
在一些实施例中,根据所述表达能力值R0,计算所述待处理神经网络中的全部参数中的每个参数对所述待处理神经网络的表达能力值的影响度包括:将所述待处理神经网络中的第j个参数删除,以得到中间神经网络,其中1≤j≤N,N为参数总数;将所述对抗样本输入所述中间神经网络,计算所述中间神经网络的表达能力值Rj;根据所述表达能力值R0和表达能力值Rj,确定第j参数对所述待处理神经网络的表达能力值的影响度。
在一些实施例中,所述第j参数对所述待处理神经网络的表达能力值的影响度为所述表达能力值R0与所述表达能力值Rj的差值的绝对值。
在一些实施例中,所述表达能力值为线性区域值。
在一些实施例中,根据所述收敛速度值H0,计算所述每个参数对所述待处理神经网络的收敛速度值的影响度包括:将所述待处理神经网络中的第j个参数删除,以得到中间神经网络,其中1≤j≤N,N为参数总数;将所述对抗样本输入所述中间神经网络,计算所述中间神经网络的收敛速度值Hj;根据所述收敛速度值H0和所述收敛速度值Hj,确定第j参数对所述待处理神经网络的收敛速度值的影响度。
在一些实施例中,所述第j参数对所述待处理神经网络的收敛速度值的影响度为所述收敛速度值H0与所述收敛速度值Hj的差值的绝对值。
在一些实施例中,所述收敛速度值为神经正切核NTK值。
在一些实施例中,所述NTK值为
其中,为目标损失函数相对于参数w的梯度值。
在一些实施例中,利用预训练模型对训练样本进行处理包括:利用预设的损失函数对训练样本进行处理,以生成扰动信息;其中,所述损失函数与所述预训练模型在所述训练样本的正确分类标签上的预测概率值、所述预训练模型在所述训练样本的错误分类标签上的预测概率值相关联。
在一些实施例中,所述损失函数为:
其中,xv为训练样本,v为生成的所述扰动信息,是所述预训练模型在所述训练样本的正确分类标签上的预测概率值,是所述预训练模型在所述训练样本的第i个错误分类标签上的预测概率值,-κ是置信值,max为最大值函数。
在一些实施例中,所述第一排序规则为根据表达能力值的影响度从小到大的顺序对所述全部参数进行排序;所述第二排序规则为根据收敛速度值的影响度从大到小的顺序对所述全部参数进行排序。
在一些实施例中,所述每个参数的剪枝评估效果利用所述每个参数在所述第一排序结果中的序号和在所述第二排序结果中的序号的加权和进行表示。
在一些实施例中,所述删除所述剪枝评估效果最差的预设数量个参数包括:删除所述加权和最大的预设数量个参数。
在一些实施例中,所述第一排序结果中的序号的权重和所述第二排序结果中的序号的权值相同。
在一些实施例中,所述第一排序结果中的序号的权重和所述第二排序结果中的序号的权值为1。
根据本公开实施例的第二方面,提供一种神经网络搜索装置,包括:第一处理模块,被配置为利用预训练模型对训练样本进行处理,以生成扰动信息,将所述训练样本和所述扰动信息进行叠加,以生成对抗样本;第二处理模块,被配置为利用所述对抗样本,确定所述待处理神经网络中的全部参数中的每个参数对所述待处理神经网络的表达能力值的影响度和收敛速度值的影响度;第三处理模块,被配置为按照第一排序规则,根据表达能力值的影响度对所述全部参数进行排序以得到第一排序结果,按照第二排序规则,根据收敛速度值的影响度对所述全部参数进行排序以得到第二排序结果,其中所述第一排序规则与所述第二排序规则相反,根据所述每个参数在所述第一排序结果中的序号和在所述第二排序结果中的序号确定所述每个参数的剪枝评估效果;第四处理模块,被配置为删除所述剪枝评估效果最差的预设数量个参数,以得到目标神经网络,利用所述目标神经网络进行对抗训练。
根据本公开实施例的第三方面,提供一种神经网络搜索装置,包括:存储器,被配置为存储指令;处理器,耦合到存储器,处理器被配置为基于存储器存储的指令执行实现如上述任一实施例所述的方法。
根据本公开实施例的第四方面,提供一种计算机可读存储介质,其中,计算机可读存储介质存储有计算机指令,指令被处理器执行时实现如上述任一实施例涉及的方法。
通过以下参照附图对本公开的示例性实施例的详细描述,本公开的其它特征及其优点将会变得清楚。
附图说明
为了更清楚地说明本公开实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本公开一个实施例的神经网络搜索方法的流程示意图;
图2为本公开另一个实施例的神经网络搜索方法的流程示意图;
图3为本公开一个实施例的神经网络搜索装置的结构示意图;
图4为本公开另一个实施例的神经网络搜索装置的结构示意图。
具体实施方式
下面将结合本公开实施例中的附图,对本公开实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本公开一部分实施例,而不是全部的实施例。以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本公开及其应用或使用的任何限制。基于本公开中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本公开保护的范围。
除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本公开的范围。
同时,应当明白,为了便于描述,附图中所示出的各个部分的尺寸并不是按照实际的比例关系绘制的。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为授权说明书的一部分。
在这里示出和讨论的所有示例中,任何具体值应被解释为仅仅是示例性的,而不是作为限制。因此,示例性实施例的其它示例可以具有不同的值。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
图1为本公开一个实施例的神经网络搜索方法的流程示意图。在一些实施例中,下列的神经网络搜索方法由神经网络搜索装置执行。
在步骤101,利用预训练模型对训练样本进行处理,以生成扰动信息。
在一些实施例中,利用预设的损失函数对训练样本进行处理,以生成扰动信息。损失函数与预训练模型在训练样本的正确分类标签上的预测概率值、预训练模型在训练样本的错误分类标签上的预测概率值相关联。
例如,损失函数为下列公式(1)。
其中,xv为训练样本,v为生成的扰动信息,是预训练模型在训练样本的正确分类标签上的预测概率值,是预训练模型在训练样本的第i个错误分类标签上的预测概率值,-k是置信值,max为最大值函数。
需要说明的是,损失函数的目标是通过最小化在目标类上的预测概率值来使模型做出错误判断。在迭代过程中,每次算出损失函数关于样本的梯度,并进行多轮叠加且裁剪到一定的范围内,这样使得图像叠加的扰动不会对原图产生过大的干扰。
在步骤102,将训练样本和扰动信息进行叠加,以生成对抗样本。
在步骤103,利用对抗样本,确定待处理神经网络中的全部参数中的每个参数对待处理神经网络的表达能力值的影响度和收敛速度值的影响度。
如图2所示,上述步骤103可包括:
在步骤201,将对抗样本输入待处理神经网络,计算待处理神经网络的表达能力值R0和收敛速度值H0。
在步骤202,根据表达能力值R0,计算待处理神经网络中的全部参数中的每个参数对待处理神经网络的表达能力值的影响度。
例如,将待处理神经网络中的第j个参数删除,以得到中间神经网络,其中1≤j≤N,N为参数总数。
接下来,将对抗样本输入中间神经网络,计算中间神经网络的表达能力值Rj。
然后,根据表达能力值R0和表达能力值Rj,确定第j参数对待处理神经网络的表达能力值的影响度。例如,第j参数对待处理神经网络的表达能力值的影响度为表达能力值R0与表达能力值Rj的差值的绝对值。
在一些实施例中,神经网络的表达能力值为神经网络的线性区域值。例如,线性区域值的定义如下:
其中,z(x0;θ)代表预激活函数,例如预激活函数为ReLu函数。P(z)为预激活函数的两种模式。例如可将取值设置为{1,-1},那么线性区域的数目就是不为空集的总数,以代表神经网络的表达能力。
在步骤203,根据收敛速度值H0,计算每个参数对待处理神经网络的收敛速度值的影响度。
例如,将待处理神经网络中的第j个参数删除,以得到中间神经网络,其中1≤j≤N,N为参数总数。
接下来,将对抗样本输入中间神经网络,计算中间神经网络的收敛速度值Hj。
然后,根据收敛速度值H0和收敛速度值Hj,确定第j参数对待处理神经网络的收敛速度值的影响度。例如,第j参数对待处理神经网络的收敛速度值的影响度为收敛速度值H0与收敛速度值Hj的差值的绝对值。
在一些实施例中,神经网络的收敛速度值为NTK(Neural Tangent Kernel,神经正切核)值。
例如,NTK值为
其中,为目标损失函数相对于参数w的梯度值。
返回图1。在步骤104,按照第一排序规则,根据表达能力值的影响度对全部参数进行排序以得到第一排序结果。
在一些实施例中,第一排序规则为根据表达能力值的影响度从小到大的顺序对全部参数进行排序。
也就是说,表达能力值的影响度越小,对应参数的排名越靠前。
在步骤105,按照第二排序规则,根据收敛速度值的影响度对全部参数进行排序以得到第二排序结果,其中所述第一排序规则与所述第二排序规则相反。
在一些实施例中,第二排序规则为根据收敛速度值的影响度从大到小的顺序对全部参数进行排序。
也就是说,收敛速度值的影响度越大,对应参数的排名越靠前。
在步骤106,根据每个参数在第一排序结果中的序号和在第二排序结果中的序号确定每个参数的剪枝评估效果。
在一些实施例中,每个参数的剪枝评估效果利用每个参数在第一排序结果中的序号和在第二排序结果中的序号的加权和进行表示。
例如,第一排序结果中的序号的权重和第二排序结果中的序号的权值可以相同,也可以不同。在一些实施例中,第一排序结果中的序号的权重和第二排序结果中的序号的权值为1。
例如,参数a对待处理神经网络的表达能力值的影响度在第一排序结果中位于第5位,该参数a对待处理神经网络的收敛速度值的影响度在第二排序结果中位于第2位,则该参数a的加权和为5+2=7。
在步骤107,删除剪枝评估效果最差的预设数量个参数,以得到目标神经网络。
例如,在第一排序规则为根据表达能力值的影响度从小到大的顺序对全部参数进行排序,第二排序规则为根据收敛速度值的影响度从大到小的顺序对全部参数进行排序的情况下,删除加权和最大的预设数量个参数。也就是说,在这种排序方式下,参数的加权和越大表明该参数的剪枝评估效果越差。
例如,共有20个参数,在第一排序规则为根据表达能力值的影响度从小到大的顺序对全部参数进行排序,第二排序规则为根据收敛速度值的影响度从大到小的顺序对全部参数进行排序的情况下,参数b对待处理神经网络的表达能力值的影响度在第一排序结果中位于第19位,该参数b对待处理神经网络的收敛速度值的影响度在第二排序结果中位于第20位,则该参数b的加权和为19+20=39。若在这20个参数中,该参数b的加权和是最大的,表明该参数b的剪枝评估效果最差,在这种情况下将该参数b删除。
这里需要说明的是,可根据使用场景灵活设置预设数量。例如,在手机使用场景下,预设数量个数较大,即通过删除较多参数,以提高目标神经网络的运行效率。在服务器使用场景下,预设数量个数较小,即通过删除较小参数,以提高目标神经网络的计算精度。
还需要说明的是,若采用不同的排序规则,即按照表达能力值的影响度从大到小的顺序对全部参数进行排序以得到第一排序结果,按照收敛速度值的影响度从小到大的顺序对全部参数进行排序以得到第二排序结果,则在根据每个参数在第一序结果中的序号和在第二排序结果中的序号确定每个参数的加权和后,删除加权和最小的预设数量个参数,以得到目标神经网络。也就是说,在这种排序方式下,参数的加权和越小表明该参数的剪枝评估效果越差。
例如,共有20个参数,若按照表达能力值的影响度从大到小的顺序对全部参数进行排序以得到第一排序结果,按照收敛速度值的影响度从小到大的顺序对全部参数进行排序以得到第二排序结果,参数b对待处理神经网络的表达能力值的影响度在第一排序结果中位于第2位,该参数b对待处理神经网络的收敛速度值的影响度在第二排序结果中位于第1位,则该参数b的加权和为2+1=3。若在这20个参数中,该参数b的加权和是最小的,表明该参数b的剪枝评估效果最差,在这种情况下将该参数b删除。
在步骤108,利用目标神经网络进行对抗训练。
在本公开上述实施例提供的神经网络搜索方法中,根据待处理神经网络中的每个参数对待处理神经网络的表达能力值的影响度以及收敛速度值的影响度,选择出需要删除的参数并进行删除(即剪枝),从而能够搜索出具有高鲁棒性的神经网络结构,从而更好地解决神经网络的安全问题。
图3为本公开一个实施例的神经网络搜索装置的结构示意图。如图3所示,神经网络搜索装置包括第一处理模块31、第二处理模块32、第三处理模块33和第四处理模块34。
第一处理模块31被配置为利用预训练模型对训练样本进行处理,以生成扰动信息,将训练样本和扰动信息进行叠加,以生成对抗样本。
在一些实施例中,第一处理模块31利用预设的损失函数对训练样本进行处理,以生成扰动信息。损失函数与预训练模型在训练样本的正确分类标签上的预测概率值、预训练模型在训练样本的错误分类标签上的预测概率值相关联。
例如,损失函数为上述公式(1)所示。
第二处理模块32被配置为利用对抗样本,确定待处理神经网络中的全部参数中的每个参数对待处理神经网络的表达能力值的影响度和收敛速度值的影响度。
在一些实施例中,第二处理模块32将对抗样本输入待处理神经网络,计算待处理神经网络的表达能力值R0和收敛速度值H0。
接下来,第二处理模块32根据表达能力值R0,计算待处理神经网络中的全部参数中的每个参数对待处理神经网络的表达能力值的影响度。
例如,将待处理神经网络中的第j个参数删除,以得到中间神经网络,其中1≤j≤N,N为参数总数。将对抗样本输入中间神经网络,计算中间神经网络的表达能力值Rj。
然后,根据表达能力值R0和表达能力值Rj,确定第j参数对待处理神经网络的表达能力值的影响度。例如,第j参数对待处理神经网络的表达能力值的影响度为表达能力值R0与表达能力值Rj的差值的绝对值。
在一些实施例中,神经网络的表达能力值为神经网络的线性区域值。例如,线性区域值的定义如上述公式(2)所示。
接下来,第二处理模块32根据收敛速度值H0,计算每个参数对待处理神经网络的收敛速度值的影响度。
例如,将待处理神经网络中的第j个参数删除,以得到中间神经网络,其中1≤j≤N,N为参数总数。将对抗样本输入中间神经网络,计算中间神经网络的收敛速度值Hj。
然后,根据收敛速度值H0和收敛速度值Hj,确定第j参数对待处理神经网络的收敛速度值的影响度。例如,第j参数对待处理神经网络的收敛速度值的影响度为收敛速度值H0与收敛速度值Hj的差值的绝对值。
在一些实施例中,神经网络的收敛速度值为NTK值。
例如,NTK值如上述公式(3)所示。
第三处理模块33被配置为按照第一排序规则,根据表达能力值的影响度对所述全部参数进行排序以得到第一排序结果,按照第二排序规则,根据收敛速度值的影响度对所述全部参数进行排序以得到第二排序结果,其中所述第一排序规则与所述第二排序规则相反,根据所述每个参数在所述第一排序结果中的序号和在所述第二排序结果中的序号确定每个参数的剪枝评估效果。
在一些实施例中,第一排序规则为根据表达能力值的影响度从小到大的顺序对全部参数进行排序,第二排序规则为根据收敛速度值的影响度从大到小的顺序对全部参数进行排序。
需要说明的是,表达能力值的影响度越小,对应参数的排名越靠前。收敛速度值的影响度越大,对应参数的排名越靠前。
在一些实施例中,每个参数的剪枝评估效果利用每个参数在第一排序结果中的序号和在第二排序结果中的序号的加权和进行表示。
例如,第一排序结果中的序号的权重和第二排序结果中的序号的权值可以相同,也可以不同。在一些实施例中,第一排序结果中的序号的权重和第二排序结果中的序号的权值为1。
例如,参数a对待处理神经网络的表达能力值的影响度在第一排序结果中位于第5位,该参数a对待处理神经网络的收敛速度值的影响度在第二排序结果中位于第2位,则该参数a的加权和为5+2=7。
第四处理模块34被配置为删除剪枝评估效果最差的预设数量个参数,以得到目标神经网络,利用目标神经网络进行对抗训练。
例如,在第一排序规则为根据表达能力值的影响度从小到大的顺序对全部参数进行排序,第二排序规则为根据收敛速度值的影响度从大到小的顺序对全部参数进行排序的情况下,删除加权和最大的预设数量个参数。也就是说,在这种排序方式下,参数的加权和越大表明该参数的剪枝评估效果越差。
还需要说明的是,若采用不同的排序规则,即按照表达能力值的影响度从大到小的顺序对全部参数进行排序以得到第一排序结果,按照收敛速度值的影响度从小到大的顺序对全部参数进行排序以得到第二排序结果,则在根据每个参数在第一序结果中的序号和在第二排序结果中的序号确定每个参数的加权和后,删除加权和最小的预设数量个参数,以得到目标神经网络。也就是说,在这种排序方式下,参数的加权和越小表明该参数的剪枝评估效果越差。
图4为本公开另一个实施例的神经网络搜索装置的结构示意图。如图4所示,神经网络搜索装置包括存储器41和处理器42。
存储器41用于存储指令,处理器42耦合到存储器41,处理器42被配置为基于存储器存储的指令执行实现如图1-2中任一实施例涉及的方法。
如图4所示,该神经网络搜索装置还包括通信接口43,用于与其它设备进行信息交互。同时,该神经网络搜索装置还包括总线44,处理器42、通信接口43、以及存储器41通过总线44完成相互间的通信。
存储器41可以包含高速RAM存储器,也可还包括非易失性存储器(non-volatilememory),例如至少一个磁盘存储器。存储器41也可以是存储器阵列。存储器41还可能被分块,并且块可按一定的规则组合成虚拟卷。
此外,处理器42可以是一个中央处理器CPU,或者可以是专用集成电路ASIC,或是被配置成实施本公开实施例的一个或多个集成电路。
本公开同时还涉及一种计算机可读存储介质,其中计算机可读存储介质存储有计算机指令,指令被处理器执行时实现如图1中任一实施例涉及的方法。
在一些实施例中,在上面所描述的功能单元模块可以实现为用于执行本公开所描述功能的通用处理器、可编程逻辑控制器(Programmable Logic Controller,简称:PLC)、数字信号处理器(Digital Signal Processor,简称:DSP)、专用集成电路(ApplicationSpecific Integrated Circuit,简称:ASIC)、现场可编程门阵列(Field-ProgrammableGate Array,简称:FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件或者其任意适当组合。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
本公开的描述是为了示例和描述起见而给出的,而并不是无遗漏的或者将本公开限于所公开的形式。很多修改和变化对于本领域的普通技术人员而言是显然的。选择和描述实施例是为了更好说明本公开的原理和实际应用,并且使本领域的普通技术人员能够理解本公开从而设计适于特定用途的带有各种修改的各种实施例。
Claims (16)
1.一种神经网络搜索方法,应用于人脸识别或图像分类检索,包括:
利用预训练模型对训练样本进行处理,以生成扰动信息;
将所述训练样本和所述扰动信息进行叠加,以生成对抗样本;
利用所述对抗样本,确定待处理神经网络中的全部参数中的每个参数对所述待处理神经网络的表达能力值的影响度和收敛速度值的影响度;
按照第一排序规则,根据表达能力值的影响度对所述全部参数进行排序以得到第一排序结果;
按照第二排序规则,根据收敛速度值的影响度对所述全部参数进行排序以得到第二排序结果,其中所述第一排序规则与所述第二排序规则相反;
根据所述每个参数在所述第一排序结果中的序号和在所述第二排序结果中的序号确定所述每个参数的剪枝评估效果;
删除所述剪枝评估效果最差的预设数量个参数,以得到目标神经网络;
利用所述目标神经网络进行对抗训练;
其中,利用所述对抗样本,确定所述待处理神经网络中的全部参数中的每个参数对所述待处理神经网络的表达能力值的影响度和收敛速度值的影响度包括:
将所述对抗样本输入待处理神经网络,计算所述待处理神经网络的表达能力值R0和收敛速度值H0,其中所述表达能力值为所述待处理神经网络的线性区域值,所述收敛速度值为神经正切核NTK值;
根据所述表达能力值R0,计算所述待处理神经网络中的全部参数中的每个参数对所述待处理神经网络的表达能力值的影响度;
根据所述收敛速度值H0,计算所述每个参数对所述待处理神经网络的收敛速度值的影响度。
2.根据权利要求1所述的方法,其中,根据所述表达能力值R0,计算所述待处理神经网络中的全部参数中的每个参数对所述待处理神经网络的表达能力值的影响度包括:
将所述待处理神经网络中的第j个参数删除,以得到中间神经网络,其中1≤j≤N,N为参数总数;
将所述对抗样本输入所述中间神经网络,计算所述中间神经网络的表达能力值Rj;
根据所述表达能力值R0和表达能力值Rj,确定第j参数对所述待处理神经网络的表达能力值的影响度。
3.根据权利要求2所述的方法,其中,
所述第j参数对所述待处理神经网络的表达能力值的影响度为所述表达能力值R0与所述表达能力值Rj的差值的绝对值。
4.根据权利要求1所述的方法,其中,根据所述收敛速度值H0,计算所述每个参数对所述待处理神经网络的收敛速度值的影响度包括:
将所述待处理神经网络中的第j个参数删除,以得到中间神经网络,其中1≤j≤N,N为参数总数;
将所述对抗样本输入所述中间神经网络,计算所述中间神经网络的收敛速度值Hj;
根据所述收敛速度值H0和所述收敛速度值Hj,确定第j参数对所述待处理神经网络的收敛速度值的影响度。
5.根据权利要求4所述的方法,其中,
所述第j参数对所述待处理神经网络的收敛速度值的影响度为所述收敛速度值H0与所述收敛速度值Hj的差值的绝对值。
6.根据权利要求5所述的方法,其中,
所述NTK值为
其中,为目标损失函数相对于参数w的梯度值。
7.根据权利要求1所述的方法,其中,利用预训练模型对训练样本进行处理包括:
利用预设的损失函数对训练样本进行处理,以生成扰动信息;
其中,所述损失函数与所述预训练模型在所述训练样本的正确分类标签上的预测概率值、所述预训练模型在所述训练样本的错误分类标签上的预测概率值相关联。
8.根据权利要求7所述的方法,其中,
所述损失函数为:
其中,为训练样本,为生成的所述扰动信息,是所述预训练模型在所述训练样本的正确分类标签上的预测概率值,是所述预训练模型在所述训练样本的第i个错误分类标签上的预测概率值,是置信值,max为最大值函数。
9.根据权利要求1-8中任一项所述的方法,其中,
所述第一排序规则为根据表达能力值的影响度从小到大的顺序对所述全部参数进行排序;
所述第二排序规则为根据收敛速度值的影响度从大到小的顺序对所述全部参数进行排序。
10.根据权利要求9所述的方法,其中,
所述每个参数的剪枝评估效果利用所述每个参数在所述第一排序结果中的序号和在所述第二排序结果中的序号的加权和进行表示。
11.根据权利要求10所述的方法,其中,所述删除所述剪枝评估效果最差的预设数量个参数包括:
删除所述加权和最大的预设数量个参数。
12.根据权利要求10所述的方法,其中,
所述第一排序结果中的序号的权重和所述第二排序结果中的序号的权值相同。
13.根据权利要求12所述的方法,其中,
所述第一排序结果中的序号的权重和所述第二排序结果中的序号的权值为1。
14.一种神经网络搜索装置,应用于人脸识别或图像分类检索,包括:
第一处理模块,被配置为利用预训练模型对训练样本进行处理,以生成扰动信息,将所述训练样本和所述扰动信息进行叠加,以生成对抗样本;
第二处理模块,被配置为利用所述对抗样本,确定待处理神经网络中的全部参数中的每个参数对所述待处理神经网络的表达能力值的影响度和收敛速度值的影响度,其中将所述对抗样本输入待处理神经网络,计算所述待处理神经网络的表达能力值R0和收敛速度值H0,其中所述表达能力值为所述待处理神经网络的线性区域值,所述收敛速度值为神经正切核NTK值,根据所述表达能力值R0,计算所述待处理神经网络中的全部参数中的每个参数对所述待处理神经网络的表达能力值的影响度,根据所述收敛速度值H0,计算所述每个参数对所述待处理神经网络的收敛速度值的影响度;
第三处理模块,被配置为按照第一排序规则,根据表达能力值的影响度对所述全部参数进行排序以得到第一排序结果,按照第二排序规则,根据收敛速度值的影响度对所述全部参数进行排序以得到第二排序结果,其中所述第一排序规则与所述第二排序规则相反,根据所述每个参数在所述第一排序结果中的序号和在所述第二排序结果中的序号确定所述每个参数的剪枝评估效果;
第四处理模块,被配置为删除所述剪枝评估效果最差的预设数量个参数,以得到目标神经网络,利用所述目标神经网络进行对抗训练。
15.一种神经网络搜索装置,包括:
存储器,被配置为存储指令;
处理器,耦合到存储器,处理器被配置为基于存储器存储的指令执行实现如权利要求1-13中任一项所述的方法。
16.一种计算机可读存储介质,其中,计算机可读存储介质存储有计算机指令,指令被处理器执行时实现如权利要求1-13中任一项所述的方法。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202210628804.0A CN114897165B (zh) | 2022-06-06 | 2022-06-06 | 神经网络搜索方法和装置 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202210628804.0A CN114897165B (zh) | 2022-06-06 | 2022-06-06 | 神经网络搜索方法和装置 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| CN114897165A CN114897165A (zh) | 2022-08-12 |
| CN114897165B true CN114897165B (zh) | 2025-05-23 |
Family
ID=82725317
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN202210628804.0A Active CN114897165B (zh) | 2022-06-06 | 2022-06-06 | 神经网络搜索方法和装置 |
Country Status (1)
| Country | Link |
|---|---|
| CN (1) | CN114897165B (zh) |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN111600851A (zh) * | 2020-04-27 | 2020-08-28 | 浙江工业大学 | 面向深度强化学习模型的特征过滤防御方法 |
| CN113011570A (zh) * | 2021-04-30 | 2021-06-22 | 电子科技大学 | 一种卷积神经网络模型的自适应高精度压缩方法及系统 |
Family Cites Families (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US11562244B2 (en) * | 2018-02-07 | 2023-01-24 | Royal Bank Of Canada | Robust pruned neural networks via adversarial training |
| CN111428125B (zh) * | 2019-01-10 | 2023-05-30 | 北京三快在线科技有限公司 | 排序方法、装置、电子设备及可读存储介质 |
| CN110543600A (zh) * | 2019-09-11 | 2019-12-06 | 上海携程国际旅行社有限公司 | 基于神经网络的搜索排序方法、系统、设备和存储介质 |
| CN114548298B (zh) * | 2022-02-25 | 2023-06-23 | 阿波罗智联(北京)科技有限公司 | 模型训练、交通信息处理方法、装置、设备和存储介质 |
-
2022
- 2022-06-06 CN CN202210628804.0A patent/CN114897165B/zh active Active
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN111600851A (zh) * | 2020-04-27 | 2020-08-28 | 浙江工业大学 | 面向深度强化学习模型的特征过滤防御方法 |
| CN113011570A (zh) * | 2021-04-30 | 2021-06-22 | 电子科技大学 | 一种卷积神经网络模型的自适应高精度压缩方法及系统 |
Also Published As
| Publication number | Publication date |
|---|---|
| CN114897165A (zh) | 2022-08-12 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN106815252B (zh) | 一种搜索方法和设备 | |
| EP3295381B1 (en) | Augmenting neural networks with sparsely-accessed external memory | |
| US12118813B2 (en) | Continuous learning for document processing and analysis | |
| CN112101190A (zh) | 一种遥感图像分类方法、存储介质及计算设备 | |
| US12118816B2 (en) | Continuous learning for document processing and analysis | |
| CN106358444A (zh) | 用于面部验证的方法和系统 | |
| CN111461175B (zh) | 自注意与协同注意机制的标签推荐模型构建方法及装置 | |
| CN112100377B (zh) | 文本分类方法、装置、计算机设备和存储介质 | |
| CN113722439B (zh) | 基于对抗性类别对齐网络的跨领域情感分类方法及系统 | |
| CN113723070A (zh) | 文本相似度模型训练方法、文本相似度检测方法及装置 | |
| CN113723462B (zh) | 危险品检测方法、装置、计算机设备和存储介质 | |
| CN119961402B (zh) | 一种基于后分块自适应重检索的知识检索增强方法与系统 | |
| CN116310850A (zh) | 基于改进型RetinaNet的遥感图像目标检测方法 | |
| CN110197213A (zh) | 基于神经网络的图像匹配方法、装置和设备 | |
| CN110019653B (zh) | 一种融合文本和标签网络的社交内容表征方法和系统 | |
| CN114241411A (zh) | 基于目标检测的计数模型处理方法、装置及计算机设备 | |
| CN113094504A (zh) | 基于自动机器学习的自适应文本分类方法及装置 | |
| CN117407533A (zh) | 用于构建知识图谱的方法及装置、计算机可读存储介质 | |
| CN114897165B (zh) | 神经网络搜索方法和装置 | |
| CN112989804A (zh) | 一种基于堆叠多头特征抽取器的实体消歧方法 | |
| CN113033281A (zh) | 一种对象重识别的方法、装置及设备 | |
| CN115129671B (zh) | 日志检测方法、装置和计算机可读存储介质 | |
| CN114155312B (zh) | 场景图生成方法和装置 | |
| CN114282535B (zh) | 基于上下文语义精准地域识别方法、系统及电子设备 | |
| CN110196976B (zh) | 文本的情感倾向分类方法、装置和服务器 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication | ||
| SE01 | Entry into force of request for substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| GR01 | Patent grant | ||
| GR01 | Patent grant |