CN111639759A - 神经网络模型保护方法、装置、设备及可读存储介质 - Google Patents
神经网络模型保护方法、装置、设备及可读存储介质 Download PDFInfo
- Publication number
- CN111639759A CN111639759A CN202010488801.2A CN202010488801A CN111639759A CN 111639759 A CN111639759 A CN 111639759A CN 202010488801 A CN202010488801 A CN 202010488801A CN 111639759 A CN111639759 A CN 111639759A
- Authority
- CN
- China
- Prior art keywords
- model
- preset
- training
- data
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/64—Protecting data integrity, e.g. using checksums, certificates or signatures
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Security & Cryptography (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computer Hardware Design (AREA)
- Neurology (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Bioethics (AREA)
- Image Analysis (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本申请公开了一种神经网络模型保护方法、装置、设备及可读存储介质,所述神经网络模型保护方法包括:获取权限验证数据,并将所述权限验证数据输入基于预设嵌入训练数据嵌入优化的待验证模型,以基于所述待验证模型的模型参数,将所述权限验证数据转化为输出权限签名信息,进而获取所述权限验证数据对应的预设权限签名信息,并基于所述输出权限签名信息和所述预设权限签名信息,确定所述待验证模型的所有权。本申请解决了神经网络模型知识产权保护安全性低的技术问题。
Description
技术领域
本申请涉及金融科技(Fintech)的人工智能领域,尤其涉及一种神经网络模型保护方法、装置、设备及可读存储介质。
背景技术
随着金融科技,尤其是互联网科技金融的不断发展,越来越多的技术(如分布式、区块链Blockchain、人工智能等)应用在金融领域,但金融业也对技术提出了更高的要求,如对金融业对应待办事项的分发也有更高的要求。
随着计算机软件和人工智能的不断发展,神经网络的应用也越来越广泛,目前,构造一个效果优良的神经网络模型通常需要大量的时间资源和金钱资源,进而通常只有神经网络的持有者知道神经网络模型的内部参数,而使用者只有神经网络模型的使用权限,也即,使用者将数据输入神经网络模型,并获得神经网络模型的反馈结果,其中,神经网络模型内部的计算过程使用者无法知晓,进而达到保护神经网络模型的目的,但是,若持有者己方公开或者泄露了神经网络模型,则对神经网络模型的保护将失效,进而神经网络模型在知识产权保护方面仍存在安全隐患。
发明内容
本申请的主要目的在于提供一种神经网络模型保护方法、装置、设备及可读存储介质,旨在解决现有技术中神经网络模型知识产权保护安全性低的技术问题。
为实现上述目的,本申请提供一种神经网络模型保护方法,所述神经网络模型保护方法应用于神经网络模型保护设备,所述神经网络模型保护方法包括:
获取权限验证数据,并将所述权限验证数据输入基于预设嵌入训练数据嵌入优化的待验证模型,以基于所述待验证模型的模型参数,将所述权限验证数据转化为输出权限签名信息;
获取所述权限验证数据对应的预设权限签名信息,并基于所述输出权限签名信息和所述预设权限签名信息,确定所述待验证模型的所有权。
可选地,在所述将所述权限验证数据输入基于预设嵌入训练数据嵌入优化的待验证模型,以基于所述待验证模型的模型参数,将所述权限验证数据转化为输出权限签名信息的步骤之前,所述神经网络模型保护方法还包括:
获取原任务训练数据和待训练模型;
基于所述预设嵌入训练数据和所述原任务数据,对所述待训练模型进行迭代训练,以优化所述预设嵌入训练数据和所述原任务数据共同对应的所述待训练模型的目标模型参数,直至所述待训练模型达到预设网络训练条件,获得所述待验证模型。
可选地,所述预设网络训练条件包括第一迭代训练结束条件和第二迭代训练结束条件,
所述基于所述预设嵌入训练数据和所述原任务数据,对所述待训练模型进行迭代训练,以优化所述预设嵌入训练数据和所述原任务数据共同对应的所述待训练模型的目标模型参数,直至所述待训练模型达到预设网络训练条件,获得所述待验证模型的步骤包括:
基于所述预设嵌入训练数据和所述原任务数据,对所述待训练模型进行迭代训练,以对所述目标模型参数进行初始优化,直至所述待训练模型达到所述第一迭代训练结束条件,获得初始训练模型;
基于所述原任务训练数据,对所述初始训练模型进行迭代训练,以对所述目标模型参数进行再次优化,直至所述初始训练模型达到所述第二迭代训练结束条件且满足所述第一迭代训练结束条件,将所述初始训练模型作为所述待验证模型。
可选地,所述基于所述预设嵌入训练数据和所述原任务数据,对所述待训练模型进行迭代训练,以对所述目标模型参数进行初始优化,直至所述待训练模型达到所述第一迭代训练结束条件,获得初始训练模型的步骤包括:
将所述预设嵌入训练数据输入所述待训练模型,对所述预设嵌入训练数据进行数据处理,获得输出签名特征信息;
计算所述输出签名特征信息与预设签名特征信息之间的训练汉明距离,并将所述训练汉明距离与预设汉明距离阀值进行比对;
若所述训练汉明距离小于所述预设汉明距离阀值,则判定所述待训练模型达到所述预设第一迭代训练结束条件,并将所述待训练模型作为所述初始训练模型;
若所述训练汉明距离大于或者等于所述预设汉明距离阀值,则基于所述训练汉明距离,优化所述目标模型参数,并重新对所述待训练模型进行迭代训练,直至所述训练汉明距离小于所述预设汉明距离阀值。
可选地,所述将所述初始训练模型作为所述待验证模型的步骤之前,所述神经网络模型保护方法还包括:
获取测试数据集,并基于所述测试数据集,对所述初始训练模型进行原任务性能测试,获得性能测试值;
计算所述性能测试值与预设性能测试阀值之间的性能测试误差值,若所述性能测试误差值小于预设误差阀值,则将所述初始训练模型作为所述待验证模型。
可选地,在所述将所述权限验证数据输入基于预设嵌入训练数据嵌入优化的待验证模型,以基于所述待验证模型的模型参数,将所述权限验证数据转化为输出权限签名信息的步骤之前,所述神经网络模型保护方法还包括:
获取原任务训练数据和待训练模型;
基于预设嵌入训练数据和所述原任务数据,对所述待训练模型进行迭代训练,以分别优化所述预设嵌入训练数据对应的所述待训练模型的第一网络权重参数和所述原任务数据对应的所述待训练模型的第二网络权重参数,直至所述待训练模型达到预设迭代训练结束条件,获得待验证模型。
可选地,所述基于所述输出权限签名信息和所述预设权限签名信息,确定所述待验证模型的所有权的步骤包括:
计算所述输出权限签名信息和所述预设权限签名信息之间的计算相似度;
基于所述计算相似度和预设相似度阀值,确定所述待验证模型的所有权。
本申请还提供一种神经网络模型保护装置,所述神经网络模型保护装置为虚拟装置,且所述神经网络模型保护装置应用于神经网络模型保护设备,所述神经网络模型保护装置包括:
转化模块,用于获取权限验证数据,并将所述权限验证数据输入基于预设嵌入训练数据嵌入优化的待验证模型,以基于所述待验证模型的模型参数,将所述权限验证数据转化为输出权限签名信息;
确定模块,用于获取所述权限验证数据对应的预设权限签名信息,并基于所述输出权限签名信息和所述预设权限签名信息,确定所述待验证模型的所有权。
可选地,所述神经网络模型保护装置还包括:
第一获取模块,用于获取原任务训练数据和待训练模型;
第一迭代训练模块,用于基于所述预设嵌入训练数据和所述原任务数据,对所述待训练模型进行迭代训练,以优化所述预设嵌入训练数据和所述原任务数据共同对应的所述待训练模型的目标模型参数,直至所述待训练模型达到预设网络训练条件,获得所述待验证模型。
可选地,所述第一迭代训练模块包括:
第一迭代训练单元,用于基于所述预设嵌入训练数据和所述原任务数据,对所述待训练模型进行迭代训练,以对所述目标模型参数进行初始优化,直至所述待训练模型达到所述第一迭代训练结束条件,获得初始训练模型;
第二迭代训练单元,用于基于所述原任务训练数据,对所述初始训练模型进行迭代训练,以对所述目标模型参数进行再次优化,直至所述初始训练模型达到所述第二迭代训练结束条件且满足所述第一迭代训练结束条件,将所述初始训练模型作为所述待验证模型。
可选地,所述第一迭代训练单元包括:
数据处理子单元,用于将所述预设嵌入训练数据输入所述待训练模型,对所述预设嵌入训练数据进行数据处理,获得输出签名特征信息;
计算子单元,用于计算所述输出签名特征信息与预设签名特征信息之间的训练汉明距离,并将所述训练汉明距离与预设汉明距离阀值进行比对;
判定单元,用于若所述训练汉明距离小于所述预设汉明距离阀值,则判定所述待训练模型达到所述预设第一迭代训练结束条件,并将所述待训练模型作为所述初始训练模型;
优化单元,用于若所述训练汉明距离大于或者等于所述预设汉明距离阀值,则基于所述训练汉明距离,优化所述目标模型参数,并重新对所述待训练模型进行迭代训练,直至所述训练汉明距离小于所述预设汉明距离阀值。
可选地,所述神经网络模型保护装置还包括:
性能测试模块,用于获取测试数据集,并基于所述测试数据集,对所述初始训练模型进行原任务性能测试,获得性能测试值;
误差计算模块,用于计算所述性能测试值与预设性能测试阀值之间的性能测试误差值,若所述性能测试误差值小于预设误差阀值,则将所述初始训练模型作为所述待验证模型。
可选地,所述神经网络模型保护装置还包括:
第二获取模块,用于获取原任务训练数据和待训练模型;
第二迭代训练模块,用于基于预设嵌入训练数据和所述原任务数据,对所述待训练模型进行迭代训练,以分别优化所述预设嵌入训练数据对应的所述待训练模型的第一网络权重参数和所述原任务数据对应的所述待训练模型的第二网络权重参数,直至所述待训练模型达到预设迭代训练结束条件,获得待验证模型。
可选地,所述确定模块包括:
计算单元,用于计算所述输出权限签名信息和所述预设权限签名信息之间的计算相似度;
确定单元,用于基于所述计算相似度和预设相似度阀值,确定所述待验证模型的所有权。
本申请还提供一种神经网络模型保护设备,所述神经网络模型保护设备为实体设备,所述神经网络模型保护设备包括:存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的所述神经网络模型保护方法的程序,所述神经网络模型保护方法的程序被处理器执行时可实现如上述的神经网络模型保护方法的步骤。
本申请还提供一种可读存储介质,所述可读存储介质上存储有实现神经网络模型保护方法的程序,所述神经网络模型保护方法的程序被处理器执行时实现如上述的神经网络模型保护方法的步骤。
本申请通过获取权限验证数据,并将所述权限验证数据输入基于预设嵌入训练数据嵌入优化的待验证模型,以基于所述待验证模型的模型参数,将所述权限验证数据转化为输出权限签名信息,进而获取所述权限验证数据对应的预设权限签名信息,并基于所述输出权限签名信息和所述预设权限签名信息,确定所述待验证模型的所有权。也即,本申请提供了一种基于预设嵌入训练数据优化的待验证模型,进而待验证模型公开或者泄露后,可将获取的权限验证数据输入所述待验证模型,进而获得输出权限签名信息,进而获取所述待验证模型基于所述预设嵌入训练数据生成的预设权限签名信息之后,若所述输出权限签名信息与预设权限签名信息一致,即可确定待验证模型的所有权,进而即使待验证模型泄露或者公开,也可以对神经网络的知识产权进行保护,进而实现了自证待验证模型的所有权的目的,提高了神经网络知识产权保护的安全性,所以,解决了神经网络模型知识产权保护安全性低的技术问题。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本申请的实施例,并与说明书一起用于解释本申请的原理。
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本申请神经网络模型保护方法第一实施例的流程示意图;
图2为本申请神经网络模型保护方法第二实施例的流程示意图;
图3为本申请神经网络模型保护方法中基于所述预设嵌入训练数据对所述循环神经网络进行嵌入优化的示意图;
图4为本申请实施例方案涉及的硬件运行环境的设备结构示意图。
本申请目的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。
本申请实施例提供一种神经网络模型保护方法,在本申请神经网络模型保护方法的第一实施例中,参照图1,所述神经网络模型保护方法包括:
步骤S10,获取权限验证数据,并将所述权限验证数据输入基于预设嵌入训练数据嵌入优化的待验证模型,以基于所述待验证模型的模型参数,将所述权限验证数据转化为输出权限签名信息;
在本实施例中,需要说明的是,所述预设嵌入训练数据至少包括一个嵌入样本,所述权限验证数据与所述预设嵌入训练数据的数据分布相同,且所述权限验证数据至少包括一个所述验证输入样本,所述输出权限签名信息为所述待验证模型基于所述验证输入样本的隐藏层输出数据,其中,所述隐藏层输出数据可用特征表示矩阵进行表示,例如所述特征表示矩阵为(a1,a2,a3,a4),其中,a1,a2,a3,a4均为特征表示向量,所述权限验证数据为用于验证待验证模型的所有权的数据,其中,所述待验证模型包括循环神经网络等,且所述待验证模型为基于预设嵌入训练数据进行了嵌入优化的神经网络,也即,基于所述预设嵌入训练数据对所述待验证模型进行迭代训练,以更新所述待验证模型的隐藏层模型参数,进而所述待验证模型在训练完成后,基于所述权限验证数据,所述隐藏层可输出特定的隐藏层输出数据。
另外地,在对所述待验证模型的训练过程中,可基于所述待验证模型的原任务训练数据和所述预设嵌入训练数据训练优化所述隐藏层的模型参数,且基于所述原任务训练数据和所述预设嵌入训练数据可分别单独优化各自对应的模型参数,其中,所述原任务数据为用于训练所述待验证模型对应的原训练任务的数据,其中,所述原训练任务包括图像分类、语音文字转换等,进一步地,也可基于所述原任务训练数据和所述预设嵌入训练数据优化两者共同对应的共享参数,例如,假设所述待验证模型对应的表达式为Y=A1X1+A2X2,其中,Y为所述待验证模型的隐藏层的输出,X1为所述原任务数据,A1为所述原任务数据对应的模型参数,X2为所述预设嵌入训练数据,A2为所述预设嵌入训练数据对应的模型参数,进而需要基于所述原任务训练数据和所述预设嵌入训练数据分别单独优化各自对应的模型参数,同样地,假设所述待验证模型对应的表达式为Y=AX,其中,Y为所述待验证模型的隐藏层的输出,X为所述原任务数据和所述预设嵌入训练数据,A为所述共享模型参数,进而需要优化所述原任务训练数据和所述预设嵌入训练数据共同对应的共享模型参数。
获取权限验证数据,并将所述权限验证数据输入基于预设嵌入训练数据嵌入优化的待验证模型,以基于所述待验证模型的模型参数,将所述权限验证数据转化为输出权限签名信息,具体地,获取各验证输入样本,并将各所述验证输入样本输入基于预设嵌入训练数据嵌入优化的待验证模型,以基于所述待验证模型的隐藏层的所述模型参数,分别对各所述验证输入样本对应的样本表示矩阵进行数据处理,其中,所述样本表示矩阵为所述验证输入样本对应的矩阵表示形式,例如,假设所述验证输入样本为图像,则所述样本表示矩阵为图像对应的像素矩阵,进而获得各所述验证输入样本对应的隐藏层输出矩阵,其中,所述数据处理包括但不限定于卷积、池化、全连接等,进而将各所述隐藏层输出矩阵作为所述输出权限签名信息。
其中,在所述将所述权限验证数据输入基于预设嵌入训练数据嵌入优化的待验证模型,以基于所述待验证模型的模型参数,将所述权限验证数据转化为输出权限签名信息的步骤之前,所述神经网络模型保护方法还包括:
步骤A10,获取原任务训练数据和待训练模型;
在本实施例中,需要说明的是,所述待训练模型为未训练好的神经网络模型,所述原任务数据至少包括一个原任务训练样本。
步骤A20,基于预设嵌入训练数据和所述原任务数据,对所述待训练模型进行迭代训练,以分别优化所述预设嵌入训练数据对应的所述待训练模型的第一网络权重参数和所述原任务数据对应的所述待训练模型的第二网络权重参数,直至所述待训练模型达到预设迭代训练结束条件,获得待验证模型。
在本实施例中,需要说明的是,所述预设嵌入训练数据至少包括一个嵌入样本,其中,每一所述嵌入样本均对应存在一预设签名信息,其中,所述嵌入样本和所述预设签名信息,均可以向量或者矩阵的形式进行表示,所述预设迭代训练结束条件包括所述预设嵌入训练数据对应的第一迭代训练结束条件和所述原任务数据对应的第二迭代训练结束条件。
基于预设嵌入训练数据和所述原任务数据,对所述待训练模型进行迭代训练,以分别优化所述预设嵌入训练数据对应的所述待训练模型的第一网络权重参数和所述原任务数据对应的所述待训练模型的第二网络权重参数,直至所述待训练模型达到预设迭代训练结束条件,获得待验证模型,具体地,将所述嵌入样本输入所述待训练模型,以基于所述待训练模型的隐藏层对所述嵌入样本进行数据处理,获得训练输出签名信息,并计算所述训练输出签名信息与所述预设权限签名信息之间的计算汉明距离,若所述计算汉明距离小于或者等于预设汉明距离阀值,则判定所述待训练模型相对于所述预设嵌入训练数据达到预设第一迭代训练结束条件,若所述计算汉明距离大于预设汉明距离阀值,则基于所述计算汉明距离,优化所述预设嵌入训练数据对应的第一网络权重参数,并对所述待训练模型重新进行迭代训练,以继续优化所述第一网络权重参数,直至所述计算汉明距离小于或者等于预设汉明距离阀值,进一步地,基于所述原任务数据,对所述待训练模型进行迭代训练,以优化所述第二网络权重参数,直至所述待训练模型满足所述第二迭代训练结束条件,则将所述待训练模型作为所述待验证模型,其中,所述第二迭代训练结束条件包括达到最大迭代次数阀值。损失函数收敛等。
步骤S20,获取所述权限验证数据对应的预设权限签名信息,并基于所述输出权限签名信息和所述预设权限签名信息,确定所述待验证模型的所有权。
在本实施例中,需要说明的是,由于所述待验证模型在泄露或者公开时,需要证明所述待验证模型的所有权,进而在所述待验证模型训练好之后,将所述权限验证数据输入所述待验证模型,以基于所述待验证模型的隐藏层,对所述权限验证数据进行数据处理,获得所述权限验证数据对应的预设权限签名信息。
获取所述权限验证数据对应的预设权限签名信息,并基于所述输出权限签名信息和所述预设权限签名信息,确定所述待验证模型的所有权,具体地,获取所述权限签名信息对应的预设权限签名信息,并将所述输出权限签名信息分别与所述预设权限签名信息进行比对,若所述输出权限签名信息与所述预设权限签名信息一致,则证明所述待验证模型神经属于神经网络模型保护设备,若所述输出权限签名信息与所述预设权限签名信息不一致,则证明所述待验证模型神经不属于神经网络模型保护设备。
其中,所述基于所述输出权限签名信息和所述预设权限签名信息,确定所述待验证模型的所有权的步骤包括:
步骤S21,计算所述输出权限签名信息和所述预设权限签名信息之间的计算相似度;
在本实施例中,需要说明的是,所述输出权限签名信息和所述预设权限签名信息均可使用向量或者矩阵进行表示。
计算所述输出权限签名信息和所述预设权限签名信息之间的计算相似度,具体地,确定所述输出权限签名信息与所述预设权限签名信息之间的比特位差异度,并基于所述比特位差异度,计算所述计算相似度,例如,假设所述输出权限签名信息为向量(1,1,1,0,0),所述预设权限签名信息为向量(1,1,1,1,0),则所述比特位差异度为20%,进而所述计算相似度为80%。
步骤S22,基于所述计算相似度和预设相似度阀值,确定所述待验证模型的所有权。
在本实施例中,基于所述计算相似度和预设相似度阀值,确定所述待验证模型的所有权,具体地,将所述计算相似度与所述预设相似度阀值进行比对,若所述计算相似度大于或者等于所述预设相似度阀值,则证明所述待验证模型神经属于神经网络模型保护设备,若所述计算相似度小于所述预设相似度阀值,则证明所述待验证模型神经不属于神经网络模型保护设备。
本实施例通过获取权限验证数据,并将所述权限验证数据输入基于预设嵌入训练数据嵌入优化的待验证模型,以基于所述待验证模型的模型参数,将所述权限验证数据转化为输出权限签名信息,进而获取所述权限验证数据对应的预设权限签名信息,并基于所述输出权限签名信息和所述预设权限签名信息,确定所述待验证模型的所有权。也即,本实施例提供了一种基于预设嵌入训练数据优化的待验证模型,进而待验证模型公开或者泄露后,可将获取的权限验证数据输入所述待验证模型,进而获得输出权限签名信息,进而获取所述待验证模型基于所述预设嵌入训练数据生成的预设权限签名信息之后,若所述输出权限签名信息与预设权限签名信息一致,即可确定待验证模型的所有权,进而即使待验证模型泄露或者公开,也可以对神经网络的知识产权进行保护,进而实现了自证待验证模型的所有权的目的,提高了神经网络知识产权保护的安全性,所以,解决了神经网络模型知识产权保护安全性低的技术问题。
进一步地,参照图2,基于本申请中第一实施例,在本申请的另一实施例中,在所述将所述权限验证数据输入基于预设嵌入训练数据嵌入优化的待验证模型,以基于所述待验证模型的模型参数,将所述权限验证数据转化为输出权限签名信息的步骤之前,所述神经网络模型保护方法还包括:
步骤B10,获取原任务训练数据和待训练模型;
在本实施例中,所述待训练模型为未训练好的神经网络,所述原任务数据至少包括一个原任务训练样本。
步骤B20,基于所述预设嵌入训练数据和所述原任务数据,对所述待训练模型进行迭代训练,以优化所述预设嵌入训练数据和所述原任务数据共同对应的所述待训练模型的目标模型参数,直至所述待训练模型达到预设网络训练条件,获得所述待验证模型。
在本实施例中,所述预设嵌入训练数据至少包括一个嵌入样本,其中,每一所述嵌入样本均对应存在一预设签名信息,其中,所述嵌入样本和所述预设签名信息,均可以向量或者矩阵的形式进行表示,所述预设迭代训练结束条件包括所述预设嵌入训练数据对应的第一迭代训练结束条件和所述原任务数据对应的第二迭代训练结束条件。
另外地,需要说明的是,由于所述嵌入训练数据的数据量通常较少,且对应的训练任务较简单,所以所述待训练模型将先达到所述第一迭代训练结束条件,进而基于所述原任务继续对所述待训练模型进行迭代训练,所述待训练模型将达到所述第二迭代训练结束条件。
基于所述预设嵌入训练数据和所述原任务数据,对所述待训练模型进行迭代训练,以优化所述预设嵌入训练数据和所述原任务数据共同对应的所述待训练模型的目标模型参数,直至所述待训练模型达到预设网络训练条件,获得所述待验证模型,具体地,将所述嵌入样本和所述原任务数据输入所述待训练模型,对所述待训练模型进行迭代训练,以优化所述共享模型参数,直至所述待训练模型满足第一迭代结束条件,进而在保证所述待训练模型在满足第二迭代结束的条件下,基于所述原任务数据,对所述待训练模型进行迭代训练,直至所述待训练模型满足第二迭代训练结束条件,将所述待训练模型作为所述待验证模型。
其中,所述预设网络训练条件包括第一迭代训练结束条件和第二迭代训练结束条件,
所述基于所述预设嵌入训练数据和所述原任务数据,对所述待训练模型进行迭代训练,以优化所述预设嵌入训练数据和所述原任务数据共同对应的所述待训练模型的目标模型参数,直至所述待训练模型达到预设网络训练条件,获得所述待验证模型的步骤包括:
步骤B21,基于所述预设嵌入训练数据和所述原任务数据,对所述待训练模型进行迭代训练,以对所述目标模型参数进行初始优化,直至所述待训练模型达到所述第一迭代训练结束条件,获得初始训练模型;
在本实施例中,基于所述预设嵌入训练数据和所述原任务数据,对所述待训练模型进行迭代训练,以对所述目标模型参数进行初始优化,直至所述待训练模型达到所述第一迭代训练结束条件,获得初始训练模型,具体地,将所述预设嵌入训练数据和所述原任务数据输入所述待训练模型,对所述待训练模型进行迭代训练,以对所述目标模型参数进行初始优化,直至所述待训练模型对应的总损失函数中的所述预设嵌入训练数据对应的第一损失函数收敛,则判定所述待训练模型达到所述第一迭代训练结束条件,并将所述待训练模型作为初始训练模型,例如,假设所述预设嵌入训练数据对应的第一损失函数为A,所述原任务数据对应的第二损失函数值为B,则所述总损失函数值为A+B。
其中,所述基于所述预设嵌入训练数据和所述原任务数据,对所述待训练模型进行迭代训练,以对所述目标模型参数进行初始优化,直至所述待训练模型达到所述第一迭代训练结束条件,获得初始训练模型的步骤包括:
步骤B211,将所述预设嵌入训练数据输入所述待训练模型,对所述预设嵌入训练数据进行数据处理,获得输出签名特征信息;
在本实施例中,需要说明的是,所述输出签名特征信息为所述待训练模型基于所述预设嵌入训练数据的隐藏层输出。
将所述预设嵌入训练数据输入所述待训练模型,对所述预设嵌入训练数据进行数据处理,获得输出签名特征信息,具体地,将所述预设嵌入训练数据输入所述待训练模型的隐藏层,对所述预设嵌入训练数据进行数据处理,其中,所述数据处理包括但不限定于卷积、池化和全连接等,获得隐藏层输出矩阵,并将所述隐藏层输出矩阵作为所述输出签名特征信息。
步骤B212,计算所述输出签名特征信息与预设签名特征信息之间的训练汉明距离,并将所述训练汉明距离与预设汉明距离阀值进行比对;
在本实施例中,需要说明的是,所述预设签名特征信息为基于预设编码方式对所述预设嵌入训练数据进行编码获得的矩阵或者向量,其中,所述预设编码方式包括WordEmbedding等,其中,Word Embedding为将文本中的词映射至预设数据向量空间的方法,进而获得该文本对应的文本向量。
计算所述输出签名特征信息与预设签名特征信息之间的训练汉明距离,并将所述训练汉明距离与预设汉明距离阀值进行比对,具体地,计算所述输出签名特征信息与预设签名特征信息之间的相异比特位数量,并将所述相异比特位数量作为所述训练汉明距离,并将所述训练汉明距离与预设汉明距离阀值进行比对。
步骤B213,若所述训练汉明距离小于所述预设汉明距离阀值,则判定所述待训练模型达到所述预设第一迭代训练结束条件,并将所述待训练模型作为所述初始训练模型;
在本实施例中,若所述训练汉明距离小于所述预设汉明距离阀值,则判定所述待训练模型达到所述预设第一迭代训练结束条件,并将所述待训练模型作为所述初始训练模型,具体地,若所述训练汉明距离小于所述预设汉明距离阀值,则判定所述待训练模型对应的总损失函数中的第一损失函数收敛,进而判定所述待训练模型达到所述预设第一迭代训练结束条件,并将所述待训练模型作为所述初始训练模型。
步骤B214,若所述训练汉明距离大于或者等于所述预设汉明距离阀值,则基于所述训练汉明距离,优化所述目标模型参数,并重新对所述待训练模型进行迭代训练,直至所述训练汉明距离小于所述预设汉明距离阀值。
在本实施例中,若所述训练汉明距离大于或者等于所述预设汉明距离阀值,则基于所述训练汉明距离,优化所述目标模型参数,并重新对所述待训练模型进行迭代训练,直至所述训练汉明距离小于所述预设汉明距离阀值,具体地,若所述训练汉明距离大于或者等于所述预设汉明距离阀值,则基于所述训练汉明距离和所述第一损失函数,优化所述待训练模型的目标模型参数,并重新对优化后的所述待训练模型进行迭代训练,直至所述训练汉明距离小于所述预设汉明距离阀值。
步骤B22,基于所述原任务训练数据,对所述初始训练模型进行迭代训练,以对所述目标模型参数进行再次优化,直至所述初始训练模型达到所述第二迭代训练结束条件且满足所述第一迭代训练结束条件,将所述初始训练模型作为所述待验证模型。
在本实施例中,基于所述原任务训练数据,对所述初始训练模型进行迭代训练,以对所述目标模型参数进行再次优化,直至所述初始训练模型达到所述第二迭代训练结束条件且满足所述第一迭代训练结束条件,将所述初始训练模型作为所述待验证模型,具体地,基于所述原任务训练数据,在保证所述初始训练模型满足所述第一迭代训练结束条件下,对所述初始训练模型进行迭代训练,以对所述目标模型参数进行优化,直至所述总损失函数收敛,则判定所述初始训练模型达到所述第二迭代训练结束条件且满足所述第一迭代训练结束条件,将所述初始训练模型作为所述待验证模型。
其中,在所述将所述初始训练模型作为所述待验证模型的步骤之前,所述神经网络模型保护方法还包括:
步骤C10,获取测试数据集,并基于所述测试数据集,对所述初始训练模型进行原任务性能测试,获得性能测试值;
在本实施例中,需要说明的是,所述测试数据集至少包括一个测试样本和所述测试样本对应的标准输出值。
获取测试数据集,并基于所述测试数据集,对所述初始训练模型进行原任务性能测试,获得性能测试值,具体地,获取各测试样本和各所述测试样本对应的标准输出值,并将各所述测试样本分别输入所述初始训练模型,获得所述初始训练模型基于各所述测试样本的输出测试值,进而将每一所述测试样本对应的输出测试值与对应的标准输出值进行比对,以计算每一所述测试样本对应的输出测试值与对应的标准输出值之间的吻合度,并统计各吻合度中超过吻合度阀值的吻合度的比例,获得性能测试值,其中,所述吻合度可通过计算所述输出测试值和所述标准输出值之间的比特位差异度获得,例如,假设所述输出测试值和所述标准输出值之间的比特位差异度为20%,则所述吻合度为80%。
步骤C20,计算所述性能测试值与预设性能测试阀值之间的性能测试误差值,若所述性能测试误差值小于预设误差阀值,则将所述初始训练模型作为所述待验证模型。
在本实施例中,需要说明的是,所述预设性能测试阀值为无嵌入模型的性能测试值,其中,所述无嵌入模型为基于所述原任务数据集对所述待训练模型进行迭代训练,直至所述待训练模型达到预设训练结束条件而获得的模型,其中,所述预设训练结束条件包括达到最大迭代次数,损失函数收敛等。
计算所述性能测试值与预设性能测试阀值之间的性能测试误差值,若所述性能测试误差值小于预设误差阀值,则将所述初始训练模型作为所述待验证模型,具体地,计算所述性能测试值与预设性能测试阀值之间的差值,并将所述差值作为所述性能测试误差值,若所述性能测试误差值小于预设误差阀值,则证明所述预设嵌入训练数据不影响所述待训练模型的性能,进而将所述初始训练模型作为所述待验证模型。
进一步地,由于基于所述预设嵌入训练数据和所述原任务数据共同优化所述目标模型参数,进而若非法者要剔除所述预设嵌入训练数据对所述待验证模型的优化调整,则需要对应所述目标模型参数进行调整,进而将影响所述原任务数据对应所述待验证模型的优化调整,进而将使得所述待验证模型瘫痪,所述待验证模型无法执行所述原任务数据对应的模型任务。
另外地,需要说明的是,所述待验证模型可基于循环神经网络进行构建,且可基于所述预设嵌入训练数据对应输出签名特征信息的控制所述原任务数据对应的当前时间步隐藏层输出,进而将所述当前时间步隐藏层输出作为下一时间步的隐藏层的输入,进而实现基于所述预设嵌入训练数据,对所述循环神经网络进行嵌入优化的目的,例如,将所述输出签名特征信息与所述原任务数据对应的初始隐藏层输出的乘积作为所述当前时间步隐藏层输出等,其中,所述初始隐藏层输出为单独将所述原任务数据输入所述待训练模型,所述待训练模型的隐藏层将输出的高维矩阵,如图3所述为基于所述预设嵌入训练数据对所述循环神经网络进行嵌入优化的示意图,其中,ht-1为所述循环神经网络的上一时间步对应的隐藏层输出,xt为所述原任务数据,k为所述预设嵌入训练数据,tanh为所述循环神经网络的隐藏层,所述SC为所述输出签名特征信息,St为预设签名特征信息,ht为所述当前时间步隐藏层输出,Ot为所述待验证模型在当前时间步的模型输出,E为所述预设汉明距离阀值,lossembedding为所述训练汉明距离。
本实施例首先获取原任务训练数据和待训练模型,进而基于所述预设嵌入训练数据和所述原任务数据,对所述待训练模型进行迭代训练,以优化所述预设嵌入训练数据和所述原任务数据共同对应的所述待训练模型的目标模型参数,直至所述待训练模型达到预设网络训练条件,获得所述待验证模型。也即,本实施例提供一种基于预设嵌入训练数据,对所述待验证模型进行嵌入优化的方法,也即,基于预设嵌入训练数据和原任务数据对所述待训练模型进行迭代训练,优化所述预设嵌入训练数据和所述原任务数据共同对应的目标模型参数,直至所述待训练模型达到预设网络训练条件,其中,由于所述预设嵌入训练数据和所述原任务数据共享同一模型参数,进而在所述待训练模型嵌入优化完成后,若要剔除所述预设嵌入训练数据对所述目标模型参数的优化影响,则需要调整所述目标模型参数,进而将影响网络的性能,导致网络瘫痪,所以,在嵌入优化成功后,非法者即使知道该网络被嵌入了数据,也难以进行剔除,进一步地,当模型数据发生泄漏或者公开时,基于所述预设嵌入训练数据对应的权限验证数据,即可验证所述待验证模型的所有权,所以,为解决神经网络模型知识产权保护安全性低的技术问题奠定了基础。
参照图4,图4是本申请实施例方案涉及的硬件运行环境的设备结构示意图。
如图4所示,该神经网络模型保护设备可以包括:处理器1001,例如CPU,存储器1005,通信总线1002。其中,通信总线1002用于实现处理器1001和存储器1005之间的连接通信。存储器1005可以是高速RAM存储器,也可以是稳定的存储器(non-volatile memory),例如磁盘存储器。存储器1005可选的还可以是独立于前述处理器1001的存储设备。
可选地,该神经网络模型保护设备还可以包括矩形用户接口、网络接口、摄像头、RF(Radio Frequency,射频)电路,传感器、音频电路、WiFi模块等等。矩形用户接口可以包括显示屏(Display)、输入子模块比如键盘(Keyboard),可选矩形用户接口还可以包括标准的有线接口、无线接口。网络接口可选的可以包括标准的有线接口、无线接口(如WI-FI接口)。
本领域技术人员可以理解,图4中示出的神经网络模型保护设备结构并不构成对神经网络模型保护设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
如图4所示,作为一种计算机存储介质的存储器1005中可以包括操作系统、网络通信模块以及神经网络模型保护方法程序。操作系统是管理和控制神经网络模型保护设备硬件和软件资源的程序,支持神经网络模型保护方法程序以及其它软件和/或程序的运行。网络通信模块用于实现存储器1005内部各组件之间的通信,以及与神经网络模型保护方法系统中其它硬件和软件之间通信。
在图4所示的神经网络模型保护设备中,处理器1001用于执行存储器1005中存储的神经网络模型保护方法程序,实现上述任一项所述的神经网络模型保护方法的步骤。
本申请神经网络模型保护设备具体实施方式与上述神经网络模型保护方法各实施例基本相同,在此不再赘述。
本申请实施例还提供一种神经网络模型保护装置,所述神经网络模型保护装置应用于神经网络模型保护设备,所述神经网络模型保护装置包括:
转化模块,用于获取权限验证数据,并将所述权限验证数据输入基于预设嵌入训练数据嵌入优化的待验证模型,以基于所述待验证模型的模型参数,将所述权限验证数据转化为输出权限签名信息;
确定模块,用于获取所述权限验证数据对应的预设权限签名信息,并基于所述输出权限签名信息和所述预设权限签名信息,确定所述待验证模型的所有权。
可选地,所述神经网络模型保护装置还包括:
第一获取模块,用于获取原任务训练数据和待训练模型;
第一迭代训练模块,用于基于所述预设嵌入训练数据和所述原任务数据,对所述待训练模型进行迭代训练,以优化所述预设嵌入训练数据和所述原任务数据共同对应的所述待训练模型的目标模型参数,直至所述待训练模型达到预设网络训练条件,获得所述待验证模型。
可选地,所述第一迭代训练模块包括:
第一迭代训练单元,用于基于所述预设嵌入训练数据和所述原任务数据,对所述待训练模型进行迭代训练,以对所述目标模型参数进行初始优化,直至所述待训练模型达到所述第一迭代训练结束条件,获得初始训练模型;
第二迭代训练单元,用于基于所述原任务训练数据,对所述初始训练模型进行迭代训练,以对所述目标模型参数进行再次优化,直至所述初始训练模型达到所述第二迭代训练结束条件且满足所述第一迭代训练结束条件,将所述初始训练模型作为所述待验证模型。
可选地,所述第一迭代训练单元包括:
数据处理子单元,用于将所述预设嵌入训练数据输入所述待训练模型,对所述预设嵌入训练数据进行数据处理,获得输出签名特征信息;
计算子单元,用于计算所述输出签名特征信息与预设签名特征信息之间的训练汉明距离,并将所述训练汉明距离与预设汉明距离阀值进行比对;
判定单元,用于若所述训练汉明距离小于所述预设汉明距离阀值,则判定所述待训练模型达到所述预设第一迭代训练结束条件,并将所述待训练模型作为所述初始训练模型;
优化单元,用于若所述训练汉明距离大于或者等于所述预设汉明距离阀值,则基于所述训练汉明距离,优化所述目标模型参数,并重新对所述待训练模型进行迭代训练,直至所述训练汉明距离小于所述预设汉明距离阀值。
可选地,所述神经网络模型保护模块还包括:
性能测试模块,用于获取测试数据集,并基于所述测试数据集,对所述初始训练模型进行原任务性能测试,获得性能测试值;
误差计算模块,用于计算所述性能测试值与预设性能测试阀值之间的性能测试误差值,若所述性能测试误差值小于预设误差阀值,则将所述初始训练模型作为所述待验证模型。
可选地,所述神经网络模型保护装置还包括:
第二获取模块,用于获取原任务训练数据和待训练模型;
第二迭代训练模块,用于基于预设嵌入训练数据和所述原任务数据,对所述待训练模型进行迭代训练,以分别优化所述预设嵌入训练数据对应的所述待训练模型的第一网络权重参数和所述原任务数据对应的所述待训练模型的第二网络权重参数,直至所述待训练模型达到预设迭代训练结束条件,获得待验证模型。
可选地,所述确定模块包括:
计算单元,用于计算所述输出权限签名信息和所述预设权限签名信息之间的计算相似度;
确定单元,用于基于所述计算相似度和预设相似度阀值,确定所述待验证模型的所有权。
本申请神经网络模型保护装置的具体实施方式与上述神经网络模型保护方法各实施例基本相同,在此不再赘述。
以上仅为本申请的优选实施例,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利处理范围内。
Claims (10)
1.一种神经网络模型保护方法,其特征在于,所述神经网络模型保护方法包括:
获取权限验证数据,并将所述权限验证数据输入基于预设嵌入训练数据嵌入优化的待验证模型,以基于所述待验证模型的模型参数,将所述权限验证数据转化为输出权限签名信息;
获取所述权限验证数据对应的预设权限签名信息,并基于所述输出权限签名信息和所述预设权限签名信息,确定所述待验证模型的所有权。
2.如权利要求1所述神经网络模型保护方法,其特征在于,在所述将所述权限验证数据输入基于预设嵌入训练数据嵌入优化的待验证模型,以基于所述待验证模型的模型参数,将所述权限验证数据转化为输出权限签名信息的步骤之前,所述神经网络模型保护方法还包括:
获取原任务训练数据和待训练模型;
基于所述预设嵌入训练数据和所述原任务数据,对所述待训练模型进行迭代训练,以优化所述预设嵌入训练数据和所述原任务数据共同对应的所述待训练模型的目标模型参数,直至所述待训练模型达到预设网络训练条件,获得所述待验证模型。
3.如权利要求2所述神经网络模型保护方法,其特征在于,所述预设网络训练条件包括第一迭代训练结束条件和第二迭代训练结束条件,
所述基于所述预设嵌入训练数据和所述原任务数据,对所述待训练模型进行迭代训练,以优化所述预设嵌入训练数据和所述原任务数据共同对应的所述待训练模型的目标模型参数,直至所述待训练模型达到预设网络训练条件,获得所述待验证模型的步骤包括:
基于所述预设嵌入训练数据和所述原任务数据,对所述待训练模型进行迭代训练,以对所述目标模型参数进行初始优化,直至所述待训练模型达到所述第一迭代训练结束条件,获得初始训练模型;
基于所述原任务训练数据,对所述初始训练模型进行迭代训练,以对所述目标模型参数进行再次优化,直至所述初始训练模型达到所述第二迭代训练结束条件且满足所述第一迭代训练结束条件,将所述初始训练模型作为所述待验证模型。
4.如权利要求3所述神经网络模型保护方法,其特征在于,所述基于所述预设嵌入训练数据和所述原任务数据,对所述待训练模型进行迭代训练,以对所述目标模型参数进行初始优化,直至所述待训练模型达到所述第一迭代训练结束条件,获得初始训练模型的步骤包括:
将所述预设嵌入训练数据输入所述待训练模型,对所述预设嵌入训练数据进行数据处理,获得输出签名特征信息;
计算所述输出签名特征信息与预设签名特征信息之间的训练汉明距离,并将所述训练汉明距离与预设汉明距离阀值进行比对;
若所述训练汉明距离小于所述预设汉明距离阀值,则判定所述待训练模型达到所述预设第一迭代训练结束条件,并将所述待训练模型作为所述初始训练模型;
若所述训练汉明距离大于或者等于所述预设汉明距离阀值,则基于所述训练汉明距离,优化所述目标模型参数,并重新对所述待训练模型进行迭代训练,直至所述训练汉明距离小于所述预设汉明距离阀值。
5.如权利要求3所述神经网络模型保护方法,其特征在于,在所述将所述初始训练模型作为所述待验证模型的步骤之前,所述神经网络模型保护方法还包括:
获取测试数据集,并基于所述测试数据集,对所述初始训练模型进行原任务性能测试,获得性能测试值;
计算所述性能测试值与预设性能测试阀值之间的性能测试误差值,若所述性能测试误差值小于预设误差阀值,则将所述初始训练模型作为所述待验证模型。
6.如权利要求1所述神经网络模型保护方法,其特征在于,在所述将所述权限验证数据输入基于预设嵌入训练数据嵌入优化的待验证模型,以基于所述待验证模型的模型参数,将所述权限验证数据转化为输出权限签名信息的步骤之前,所述神经网络模型保护方法还包括:
获取原任务训练数据和待训练模型;
基于预设嵌入训练数据和所述原任务数据,对所述待训练模型进行迭代训练,以分别优化所述预设嵌入训练数据对应的所述待训练模型的第一网络权重参数和所述原任务数据对应的所述待训练模型的第二网络权重参数,直至所述待训练模型达到预设迭代训练结束条件,获得待验证模型。
7.如权利要求1所述神经网络模型保护方法,其特征在于,所述基于所述输出权限签名信息和所述预设权限签名信息,确定所述待验证模型的所有权的步骤包括:
计算所述输出权限签名信息和所述预设权限签名信息之间的计算相似度;
基于所述计算相似度和预设相似度阀值,确定所述待验证模型的所有权。
8.一种神经网络模型保护装置,其特征在于,所述神经网络模型保护装置包括:
转化模块,用于获取权限验证数据,并将所述权限验证数据输入基于预设嵌入训练数据嵌入优化的待验证模型,以基于所述待验证模型的模型参数,将所述权限验证数据转化为输出权限签名信息;
确定模块,用于获取所述权限验证数据对应的预设权限签名信息,并基于所述输出权限签名信息和所述预设权限签名信息,确定所述待验证模型的所有权。
9.一种神经网络模型保护设备,其特征在于,所述神经网络模型保护设备包括:存储器、处理器以及存储在存储器上的用于实现所述神经网络模型保护方法的程序,
所述存储器用于存储实现神经网络模型保护方法的程序;
所述处理器用于执行实现所述神经网络模型保护方法的程序,以实现如权利要求1至7中任一项所述神经网络模型保护方法的步骤。
10.一种可读存储介质,其特征在于,所述可读存储介质上存储有实现神经网络模型保护方法的程序,所述实现神经网络模型保护方法的程序被处理器执行以实现如权利要求1至7中任一项所述神经网络模型保护方法的步骤。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202010488801.2A CN111639759B (zh) | 2020-06-01 | 2020-06-01 | 神经网络模型保护方法、装置、设备及可读存储介质 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202010488801.2A CN111639759B (zh) | 2020-06-01 | 2020-06-01 | 神经网络模型保护方法、装置、设备及可读存储介质 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| CN111639759A true CN111639759A (zh) | 2020-09-08 |
| CN111639759B CN111639759B (zh) | 2025-01-10 |
Family
ID=72330365
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN202010488801.2A Active CN111639759B (zh) | 2020-06-01 | 2020-06-01 | 神经网络模型保护方法、装置、设备及可读存储介质 |
Country Status (1)
| Country | Link |
|---|---|
| CN (1) | CN111639759B (zh) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN113627086A (zh) * | 2021-08-21 | 2021-11-09 | 深圳前海微众银行股份有限公司 | 横向联邦学习建模优化方法、设备、介质及程序产品 |
Citations (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN109146064A (zh) * | 2018-09-05 | 2019-01-04 | 腾讯科技(深圳)有限公司 | 神经网络训练方法、装置、计算机设备和存储介质 |
| CN109376615A (zh) * | 2018-09-29 | 2019-02-22 | 苏州科达科技股份有限公司 | 用于提升深度学习网络预测性能的方法、装置及存储介质 |
| EP3493120A1 (en) * | 2017-12-01 | 2019-06-05 | Koninklijke Philips N.V. | Training a neural network model |
| CN110188720A (zh) * | 2019-06-05 | 2019-08-30 | 上海云绅智能科技有限公司 | 一种基于卷积神经网络的目标检测方法及系统 |
| CN110209867A (zh) * | 2019-06-05 | 2019-09-06 | 腾讯科技(深圳)有限公司 | 图像检索模型的训练方法、装置、设备及存储介质 |
| CN110490295A (zh) * | 2018-05-15 | 2019-11-22 | 华为技术有限公司 | 一种神经网络模型、数据处理方法及处理装置 |
| CN110537191A (zh) * | 2017-03-22 | 2019-12-03 | 维萨国际服务协会 | 隐私保护机器学习 |
| CN110688502A (zh) * | 2019-09-09 | 2020-01-14 | 重庆邮电大学 | 一种基于深度哈希和量化的图像检索方法及存储介质 |
| CN110766044A (zh) * | 2019-09-11 | 2020-02-07 | 浙江大学 | 一种基于高斯过程先验指导的神经网络训练方法 |
| CN110766090A (zh) * | 2019-10-30 | 2020-02-07 | 腾讯科技(深圳)有限公司 | 一种模型训练方法、装置、设备、系统及存储介质 |
-
2020
- 2020-06-01 CN CN202010488801.2A patent/CN111639759B/zh active Active
Patent Citations (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN110537191A (zh) * | 2017-03-22 | 2019-12-03 | 维萨国际服务协会 | 隐私保护机器学习 |
| EP3493120A1 (en) * | 2017-12-01 | 2019-06-05 | Koninklijke Philips N.V. | Training a neural network model |
| CN110490295A (zh) * | 2018-05-15 | 2019-11-22 | 华为技术有限公司 | 一种神经网络模型、数据处理方法及处理装置 |
| CN109146064A (zh) * | 2018-09-05 | 2019-01-04 | 腾讯科技(深圳)有限公司 | 神经网络训练方法、装置、计算机设备和存储介质 |
| CN109376615A (zh) * | 2018-09-29 | 2019-02-22 | 苏州科达科技股份有限公司 | 用于提升深度学习网络预测性能的方法、装置及存储介质 |
| CN110188720A (zh) * | 2019-06-05 | 2019-08-30 | 上海云绅智能科技有限公司 | 一种基于卷积神经网络的目标检测方法及系统 |
| CN110209867A (zh) * | 2019-06-05 | 2019-09-06 | 腾讯科技(深圳)有限公司 | 图像检索模型的训练方法、装置、设备及存储介质 |
| CN110688502A (zh) * | 2019-09-09 | 2020-01-14 | 重庆邮电大学 | 一种基于深度哈希和量化的图像检索方法及存储介质 |
| CN110766044A (zh) * | 2019-09-11 | 2020-02-07 | 浙江大学 | 一种基于高斯过程先验指导的神经网络训练方法 |
| CN110766090A (zh) * | 2019-10-30 | 2020-02-07 | 腾讯科技(深圳)有限公司 | 一种模型训练方法、装置、设备、系统及存储介质 |
Non-Patent Citations (3)
| Title |
|---|
| YOSSI ADI 等: "Turning Your Weakness Into a Strength: Watermarking Deep Neural Networks by Backdooring", ARXIV:1802.04633V3, 31 January 2018 (2018-01-31), pages 1 - 17 * |
| ZHENG LI 等: "How to Prove Your Model Belongs to You:A Blind-Watermark based Framework to Protect Intellectual Property of DNN", ARXIV:1903.01743V4, 31 December 2019 (2019-12-31), pages 1 - 7, XP058468896, DOI: 10.1145/3359789.3359801 * |
| 李媛 等: "一个基于神经网络的动态手写签名验证模型", 计算机科学, vol. 32, no. 05, 31 December 2005 (2005-12-31), pages 181 - 184 * |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN113627086A (zh) * | 2021-08-21 | 2021-11-09 | 深圳前海微众银行股份有限公司 | 横向联邦学习建模优化方法、设备、介质及程序产品 |
| WO2023024368A1 (zh) * | 2021-08-21 | 2023-03-02 | 深圳前海微众银行股份有限公司 | 横向联邦学习建模优化方法、设备、介质及程序产品 |
| CN113627086B (zh) * | 2021-08-21 | 2024-03-26 | 深圳前海微众银行股份有限公司 | 横向联邦学习建模优化方法、设备、介质及程序产品 |
Also Published As
| Publication number | Publication date |
|---|---|
| CN111639759B (zh) | 2025-01-10 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN112990472B (zh) | 消除量子噪声的方法及装置、电子设备和介质 | |
| CN114429218B (zh) | 消除量子噪声的方法及装置、电子设备和介质 | |
| WO2021051593A1 (zh) | 图像处理方法、装置、计算机设备及存储介质 | |
| US20240062093A1 (en) | Method for cancelling a quantum noise | |
| CN113065659B (zh) | 消除量子噪声的方法及装置、电子设备和介质 | |
| CN114492823B (zh) | 消除量子噪声的方法及装置、电子设备和介质 | |
| CN112785002B (zh) | 模型构建优化方法、设备、介质及计算机程序产品 | |
| CN113657602B (zh) | 用于量子计算的方法及其装置 | |
| CN111612079A (zh) | 数据确权方法、设备及可读存储介质 | |
| CN114580648B (zh) | 消除广义振幅阻尼噪声的方法及装置、电子设备和介质 | |
| CN113098803A (zh) | 量子噪声信道的逆映射分解方法及装置、电子设备和介质 | |
| CN113098802A (zh) | 量子噪声信道的逆映射分解方法及装置、电子设备和介质 | |
| CN113409307A (zh) | 基于异质噪声特性的图像去噪方法、设备及介质 | |
| CN108681493A (zh) | 数据异常检测方法、装置、服务器和存储介质 | |
| CN117728923B (zh) | 量子信道编码搜索方法、装置及电子设备 | |
| CN111784401A (zh) | 下单率预测方法、装置、设备及可读存储介质 | |
| CN111639759A (zh) | 神经网络模型保护方法、装置、设备及可读存储介质 | |
| CN112966054A (zh) | 基于企业图谱节点间关系的族群划分方法和计算机设备 | |
| TWI818496B (zh) | 指紋識別方法、指紋模組及電子設備 | |
| CN114118381A (zh) | 基于自适应聚合稀疏通信的学习方法、装置、设备及介质 | |
| CN111652356A (zh) | 神经网络模型保护方法、装置、设备及可读存储介质 | |
| US20220292381A1 (en) | Entanglement forging for quantum simulations | |
| CN110320800B (zh) | 控制系统补偿方法、装置、介质及智能设备 | |
| CN113365345B (zh) | 相位偏差校正方法、装置、计算机设备和存储介质 | |
| CN116599845A (zh) | 电网信息物理系统的安全通信和资源分配方法和装置 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication | ||
| SE01 | Entry into force of request for substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| GR01 | Patent grant | ||
| GR01 | Patent grant |