CN111625820A - 一种基于面向AIoT安全的联邦防御方法 - Google Patents
一种基于面向AIoT安全的联邦防御方法 Download PDFInfo
- Publication number
- CN111625820A CN111625820A CN202010474349.4A CN202010474349A CN111625820A CN 111625820 A CN111625820 A CN 111625820A CN 202010474349 A CN202010474349 A CN 202010474349A CN 111625820 A CN111625820 A CN 111625820A
- Authority
- CN
- China
- Prior art keywords
- aiot
- training
- adversarial
- federal
- terminal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/50—Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems
- G06F21/55—Detecting local intrusion or implementing counter-measures
- G06F21/552—Detecting local intrusion or implementing counter-measures involving long-term monitoring or reporting
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/62—Protecting access to data via a platform, e.g. using keys or access control rules
- G06F21/6218—Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
- G06F21/6245—Protecting personal data, e.g. for financial or medical purposes
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- Computer Security & Cryptography (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Health & Medical Sciences (AREA)
- Bioethics (AREA)
- General Health & Medical Sciences (AREA)
- Computer Hardware Design (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Computer And Data Communications (AREA)
Abstract
本发明公开了一种面向AIoT安全的联邦防御方法,其特点是该方法包括:各边缘端节点收集在本地遭遇到的对抗攻击样本、利用正常样本和对抗样本各自独立的进行对抗训练,并将每轮对抗训练更新的梯度信息发送给云端,云端利用聚合后的梯度进行一次参数更新,完成整个分布式防御架构内的模型参数同步。本发明与现有技术相比具有一定的防御通用性,当任意一处AIoT设备上的神经网络遭受对抗样本攻击时,会在确保AIoT终端隐私安全的前提下,对遭受攻击的AIoT设备进行防御性修复,有效解决了AIoT环境特有的训练数据不均衡、潜在的对抗攻击类型多样化,以及本地数据上传过程中容易隐私泄露等问题,方法简便,效果好。
Description
技术领域
本发明涉及联邦学习和对抗训练技术领域,尤其是一种基于面向AIoT安全抵抗多种类型对抗样本攻击的联邦防御方法。
背景技术
神经网络(NeuralNetwork)是人工智能领域一种经常用于计算机视觉、自然语言处理和语义分割等各类场景的模型。由于其较好的分类效果,现已被广泛应于深度学习相关的各项任务中。AIoT是指在人工智能(AI)如火如荼的发展进程中,与物联网(IoT)相结合的应用。通常来说,IoT设备提供数据支持,而AI则负责计算力支撑。对抗样本(AdversarialExamples)是最近几年新兴的研究热点,指的是通过对原始图片添加人眼难以察觉到的微小扰动,以达到试图“欺骗”神经网络的目的,令神经网络做出错误的判断,从而达到攻击的目的。联邦学习(FederatedLearning)是Google在2016年提出的一种分布式深度学习训练框架。它用于解决分布式场景中常见的数据分配不均匀,本地数据上传过程中隐私泄露等核心问题。
目前,经典的对抗样本攻击包括了快速梯度符号法(FGSM)、基本迭代方法(BIM)、基于雅可比的显著图攻击(JSMA)、深度欺骗(DeepFool)、卡里尼-瓦格纳攻击(C&W)和简单黑盒攻击(SimBA)等。对抗训练是当下较为常见的一种防御方法。它是指在神经网络的训练过程中,在使用正常样本的同时加入相对应的对抗样本一起参与训练。
现有技术的对抗训练中通常只使用FGSM这一种类型的对抗样本攻击方法,对抗训练缺乏一定的防御通用性,存在着AIoT环境特有的训练数据不均衡、潜在的对抗攻击类型多样化,以及本地数据上传过程中容易隐私泄露等问题。
发明内容
本发明的目的是针对现有技术的不足而提出的一种基于面向AIoT安全的联邦防御方法,采用联邦学习与对抗训练结合,构建一种面向AIoT安全的联邦防御方法,当任意一处AIoT设备上的神经网络遭受对抗样本攻击时,会在确保AIoT终端隐私安全的前提下,对遭受攻击的AIoT设备进行防御性修复,该方法利用AIoT终端分布在不同环境中的特点,收集各式各样的原始数据以及不同对抗攻击方法生成的对抗样本,通过联邦学习将不同AIoT终端对抗训练学习到的抵抗不同类型对抗样本的梯度信息聚合,不但大大保护了AIoT设备的隐私安全,又降低了终端和云端之间的通信开销,提高了传输效率,有效解决了传统对抗训练缺乏通用性不足的问题。
本发明的目的是这样实现的:一种基于面向AIoT安全的联邦防御方法,其特点是采用联邦学习与对抗训练结合,构建一种面向AIoT安全的联邦防御方法,当任意一处AIoT设备上的神经网络遭受对抗样本攻击时,会在确保AIoT终端隐私安全的前提下,对遭受攻击的AIoT设备进行防御性修复,该方法将各分布式AIoT终端节点分别在本地收集各自的训练数据,接着各AIoT终端模型利用收集到的训练数据独立地进行对抗训练,每一轮训练结束后,每一台AIoT终端都将获得各自模型在本轮需要更新地梯度信息,然后所有AIoT终端会将各自的梯度信息发送至云端,云端利用联邦聚合算法聚合AIoT终端发送的模型梯度信息得到最终的梯度,并使用该梯度对云端模型进行一次参数更新;最后,云端将更新后的模型参数发送回每一台AIoT终端设备,完成模型参数同步,其具体联邦防御包括以下步骤:
a)样本收集阶段
每台AIoT终端节点在本地端分别收集不同的原始数据以及遭遇到的对抗攻击样本;所述每台AIoT终端收集到的样本具有AIoT终端所处位置不同所导致的原始样本不同,以及攻击者不同所造成的对抗样本类型不同的多样性。
b)对抗训练阶段
每台AIoT终端节点利用各自的正常样本和对抗样本各自独立的进行对抗训练。
c)联邦学习阶段
每台AIoT终端节点在每轮对抗训练阶段后将更新的梯度信息发送给云端,云端利用联邦聚合算法,将收集到的各AIoT终端梯度信息进行汇总,并利用聚合后的梯度进行一次参数更新;所述各AIoT终端节点在每轮对抗训练阶段后,为了保护AIoT终端的隐私,其向云端发送的既不是训练数据,也不是具体的模型信息,而是用于模型更新的梯度信息。与此同时,该方法也大大的减少了终端和云端之间的通信带宽,提高了传输效率。d)模型同步阶段
云端将更新完的模型参数信息发送给所有AIoT终端节点,完成整个分布式防御架构内的模型参数同步。
本发明与现有技术相比具有一定的防御通用性,进一步提高防御效果,通过联邦学习和对抗训练的结合,构建一种面向AIoT安全的联邦防御方法,当任意一处AIoT设备上的神经网络遭受对抗样本攻击时,会在确保AIoT终端隐私安全的前提下,对遭受攻击的AIoT设备进行防御性修复,有效解决了AIoT环境特有的训练数据不均衡、潜在的对抗攻击类型多样化,以及本地数据上传过程中容易隐私泄露等问题,方法简便,效果好。
附图说明
图1为本发明的流程图;
图2为本发明框架示意图。
具体实施方式
参阅附图1,本发明的联邦防御具体包括如下四个阶段:
a)样本收集阶段
分布在不同环境中的AIoT终端节点所接触到的原始数据不尽相同,此外由于攻击者的不同,其面临的潜在对抗攻击类型也可能各自不同。因此,在样本收集阶段,不同的AIoT终端节点首先会在各自的环境中,收集原始数据以及由特定类型对抗攻击所生成的对抗样本。所述AIoT场景中原始数据和对抗样本的多样性是指:AIoT终端由于所处位置不同所导致的本地原始样本不同以及由于攻击者不同所产生的对抗样本类型不同。
b)对抗训练阶段
当每台AIoT终端获得到足够的训练数据和对抗样本时,便会在本地开启独立的对抗训练过程。对抗训练的本质就是在传统神经网络训练的数据集中,加入相对应的对抗样本协同参与训练。因此,在计算神经网络反向传播时的损失函数时,需要分为两部分进行计算:一部分是由正常训练样本产生的损失函数,另一部分是由对抗样本产生的损失函数,而对抗训练最终的损失函数是两者的加权和。
c)联邦学习阶段
每台AIoT终端在独立地完成每一轮对抗训练后,都会将本轮更新的梯度信息发送到云端服务器。云端在收到所有终端设备发来的梯度信息后,会通过联邦聚合算法对所有收集到的梯度进行聚合获得最终的梯度。随后,云端服务器利用该梯度更新云端模型。所述AIoT终端在每一轮对抗训练结束后向云端服务器发送梯度信息而不是训练数据或是具体的模型信息,是为了保护每台终端设备上的隐私数据不被泄露,且大大的减少了终端和云端之间的通信带宽。
d)模型同步阶段
待云端模型更新完成后,为了使得云端模型和所有AIoT终端模型保持同步,云端会将通过联邦学习更新后的模型参数发送给所有AIoT终端,完成系统内所有模型的参数同步。
通过以下具体实施例对本发明作进一步的详细说明。
实施例1
参阅附图2,本发明按下述步骤进行正常训练样本和联合对抗训练的:
a)样本收集阶段
各边缘设备收集各自遭遇的对抗攻击所生成的对抗样本数据集,其具体实施采用下述算法1的划分数据集算法:
该算法的输入包括了总数据集、AIoT终端数量和每台AIoT终端节点的序号;该算法的输出是每台AIoT终端节点上获取的原始数据集Bucket。该算法首先根据AIoT终端数量确定Bucket的大小;接着根据终端节点的序号确定该终端节点应获得的数据集在总数据集中的范围;然后利用随机函数对该范围内数据集使用随机函数进行散化处理,实现数据增强;最后通过下标随机访问的方式获取相应的数据集,也就是Bucket。
b)对抗训练阶段
各边缘设备(AIoT终端节点)利用收集的对抗样本与正常训练样本进行各自独立的进行对抗训练;
c)联邦学习阶段
联邦学习阶段的具体实施采用下述算法2的联邦对抗训练算法:
该联邦对抗训练算法详细地描述了本发明在样本收集阶段、对抗训练阶段、联邦学习阶段和模型同步阶段具体的执行过程。该算法的输入包括了已知类型的对抗攻击集合、云端服务器及其模型参数、AIoT终端节点及其模型参数和数据集。该算法首先让每台AIoT设备向云端服务器发送模型初始化请求,并使用划分数据集算法在本地完成样本收集阶段,获得各自的原始数据集Bucket;随后使用不同的对抗攻击算法对AIoT终端上的模型和原始数据集Bucket进行对抗攻击生成不同类型的对抗样本;接着,每台AIoT设备使用各自的原始数据集Bucket和对抗样本在本地独立地进行对抗训练,对抗训练需要的参数即是正常样本、对抗样本和正确的数据标签,返回值即是模型在本轮对抗训练后通过损失函数在反向传播时计算出来的梯度信息。
d)模型同步阶段
各边缘设备(AIoT终端节点)将对抗训练产生的梯度发送给云端服务器,云端服务器在收到所有终端发送来的梯度后,会通过联邦聚合算法(本实验中使用了最常见的联邦平均算法)对所有梯度进行一次聚合得到最终的梯度,云端服务器模型会应用该梯度去更新模型参数。最后,云端模型将训练好的模型参数,即最新模型参数发送给所有AIoT终端设备,更新所有边缘设备模型,终端模型会与云端模型完成参数同步以确保系统内所有模型参数的一致性。
上述实验结果表明,本发明可有效地抵抗多种类型的对抗样本攻击,在确保AIoT终端隐私安全的同时,模型防御性能平均提升了约20%,方法简便,防御效果好。
以上各实施例只是对本发明做进一步说明,并非用以限制本发明专利,凡为本发明的等效实施,均应包含于本发明专利的权利要求范围之内。
Claims (2)
1.一种面向AIoT安全的联邦防御方法,其特征在于采用联邦学习与对抗训练结合,构建一种面向AIoT安全的联邦防御方法,当任意一处AIoT设备上的神经网络遭受对抗样本攻击时,会在确保AIoT终端隐私安全的前提下,对遭受攻击的AIoT设备进行防御性修复,其具体联邦防御包括以下步骤:
a)样本收集阶段
每台AIoT终端节点在本地端分别收集不同的原始数据以及遭遇的对抗攻击所生成的对抗样本数据集;
b)对抗训练阶段
每台AIoT终端节点利用各自的正常样本和对抗样本各自独立的进行对抗训练;
c)联邦学习阶段
每台AIoT终端节点在每轮对抗训练阶段后将更新的梯度信息发送给云端,云端利用联邦聚合算法,将收集到的各AIoT终端梯度信息进行汇总,并利用聚合后的梯度进行一次参数更新;
d)模型同步阶段
云端将更新完的模型参数信息发送给所有AIoT终端节点,完成整个分布式防御架构内的模型参数同步。
2.根据权利要求1所述面向AIoT安全的联邦防御方法,其特征在于所述每台AIoT终端收集到的样本具有AIoT终端所处位置不同所导致的原始样本不同,以及攻击者不同所造成的对抗样本类型不同的多样性。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202010474349.4A CN111625820A (zh) | 2020-05-29 | 2020-05-29 | 一种基于面向AIoT安全的联邦防御方法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202010474349.4A CN111625820A (zh) | 2020-05-29 | 2020-05-29 | 一种基于面向AIoT安全的联邦防御方法 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| CN111625820A true CN111625820A (zh) | 2020-09-04 |
Family
ID=72260763
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN202010474349.4A Pending CN111625820A (zh) | 2020-05-29 | 2020-05-29 | 一种基于面向AIoT安全的联邦防御方法 |
Country Status (1)
| Country | Link |
|---|---|
| CN (1) | CN111625820A (zh) |
Cited By (12)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN112257063A (zh) * | 2020-10-19 | 2021-01-22 | 上海交通大学 | 一种基于合作博弈论的联邦学习中后门攻击的检测方法 |
| CN112560059A (zh) * | 2020-12-17 | 2021-03-26 | 浙江工业大学 | 一种基于神经通路特征提取的垂直联邦下模型窃取防御方法 |
| CN112668044A (zh) * | 2020-12-21 | 2021-04-16 | 中国科学院信息工程研究所 | 面向联邦学习的隐私保护方法及装置 |
| CN112738035A (zh) * | 2020-12-17 | 2021-04-30 | 杭州趣链科技有限公司 | 一种基于区块链技术的垂直联邦下模型窃取防御方法 |
| CN113657611A (zh) * | 2021-08-30 | 2021-11-16 | 支付宝(杭州)信息技术有限公司 | 联合更新模型的方法及装置 |
| CN113689005A (zh) * | 2021-09-07 | 2021-11-23 | 三星电子(中国)研发中心 | 一种增强型横向联邦学习方法和装置 |
| CN114283341A (zh) * | 2022-03-04 | 2022-04-05 | 西南石油大学 | 一种高转移性对抗样本生成方法、系统及终端 |
| CN114611607A (zh) * | 2022-03-14 | 2022-06-10 | 腾讯科技(上海)有限公司 | 一种模型训练方法以及相关装置 |
| CN114978899A (zh) * | 2022-05-11 | 2022-08-30 | 业成科技(成都)有限公司 | AIoT设备更新方法和装置 |
| CN116644802A (zh) * | 2023-07-19 | 2023-08-25 | 支付宝(杭州)信息技术有限公司 | 模型训练方法及装置 |
| CN120378186A (zh) * | 2025-05-15 | 2025-07-25 | 联通智网科技股份有限公司 | 多云场景的预警方法及相应装置 |
| US12488140B2 (en) | 2021-09-07 | 2025-12-02 | Samsung Electronics Co., Ltd. | Method and apparatus for performing horizontal federated learning |
Citations (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN109460814A (zh) * | 2018-09-28 | 2019-03-12 | 浙江工业大学 | 一种具有防御对抗样本攻击功能的深度学习分类方法 |
| CN109617706A (zh) * | 2018-10-18 | 2019-04-12 | 北京鼎力信安技术有限公司 | 工业控制系统防护方法及工业控制系统防护装置 |
| CN109948658A (zh) * | 2019-02-25 | 2019-06-28 | 浙江工业大学 | 面向特征图注意力机制的对抗攻击防御方法及应用 |
| CN110084002A (zh) * | 2019-04-23 | 2019-08-02 | 清华大学 | 深度神经网络攻击方法、装置、介质和计算设备 |
| US20190244103A1 (en) * | 2018-02-07 | 2019-08-08 | Royal Bank Of Canada | Robust pruned neural networks via adversarial training |
| CN110278249A (zh) * | 2019-05-30 | 2019-09-24 | 天津神兔未来科技有限公司 | 一种分布式群体智能系统 |
| CN110334808A (zh) * | 2019-06-12 | 2019-10-15 | 武汉大学 | 一种基于对抗样本训练的对抗攻击防御方法 |
| CN110572253A (zh) * | 2019-09-16 | 2019-12-13 | 济南大学 | 一种联邦学习训练数据隐私性增强方法及系统 |
| CN110633805A (zh) * | 2019-09-26 | 2019-12-31 | 深圳前海微众银行股份有限公司 | 纵向联邦学习系统优化方法、装置、设备及可读存储介质 |
| CN110674938A (zh) * | 2019-08-21 | 2020-01-10 | 浙江工业大学 | 基于协同多任务训练的对抗攻击防御方法 |
| CN110995737A (zh) * | 2019-12-13 | 2020-04-10 | 支付宝(杭州)信息技术有限公司 | 联邦学习的梯度融合方法及装置和电子设备 |
-
2020
- 2020-05-29 CN CN202010474349.4A patent/CN111625820A/zh active Pending
Patent Citations (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20190244103A1 (en) * | 2018-02-07 | 2019-08-08 | Royal Bank Of Canada | Robust pruned neural networks via adversarial training |
| CN109460814A (zh) * | 2018-09-28 | 2019-03-12 | 浙江工业大学 | 一种具有防御对抗样本攻击功能的深度学习分类方法 |
| CN109617706A (zh) * | 2018-10-18 | 2019-04-12 | 北京鼎力信安技术有限公司 | 工业控制系统防护方法及工业控制系统防护装置 |
| CN109948658A (zh) * | 2019-02-25 | 2019-06-28 | 浙江工业大学 | 面向特征图注意力机制的对抗攻击防御方法及应用 |
| CN110084002A (zh) * | 2019-04-23 | 2019-08-02 | 清华大学 | 深度神经网络攻击方法、装置、介质和计算设备 |
| CN110278249A (zh) * | 2019-05-30 | 2019-09-24 | 天津神兔未来科技有限公司 | 一种分布式群体智能系统 |
| CN110334808A (zh) * | 2019-06-12 | 2019-10-15 | 武汉大学 | 一种基于对抗样本训练的对抗攻击防御方法 |
| CN110674938A (zh) * | 2019-08-21 | 2020-01-10 | 浙江工业大学 | 基于协同多任务训练的对抗攻击防御方法 |
| CN110572253A (zh) * | 2019-09-16 | 2019-12-13 | 济南大学 | 一种联邦学习训练数据隐私性增强方法及系统 |
| CN110633805A (zh) * | 2019-09-26 | 2019-12-31 | 深圳前海微众银行股份有限公司 | 纵向联邦学习系统优化方法、装置、设备及可读存储介质 |
| CN110995737A (zh) * | 2019-12-13 | 2020-04-10 | 支付宝(杭州)信息技术有限公司 | 联邦学习的梯度融合方法及装置和电子设备 |
Cited By (17)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN112257063A (zh) * | 2020-10-19 | 2021-01-22 | 上海交通大学 | 一种基于合作博弈论的联邦学习中后门攻击的检测方法 |
| CN112560059A (zh) * | 2020-12-17 | 2021-03-26 | 浙江工业大学 | 一种基于神经通路特征提取的垂直联邦下模型窃取防御方法 |
| CN112738035A (zh) * | 2020-12-17 | 2021-04-30 | 杭州趣链科技有限公司 | 一种基于区块链技术的垂直联邦下模型窃取防御方法 |
| CN112560059B (zh) * | 2020-12-17 | 2022-04-29 | 浙江工业大学 | 一种基于神经通路特征提取的垂直联邦下模型窃取防御方法 |
| CN112668044A (zh) * | 2020-12-21 | 2021-04-16 | 中国科学院信息工程研究所 | 面向联邦学习的隐私保护方法及装置 |
| CN113657611A (zh) * | 2021-08-30 | 2021-11-16 | 支付宝(杭州)信息技术有限公司 | 联合更新模型的方法及装置 |
| WO2023038220A1 (en) * | 2021-09-07 | 2023-03-16 | Samsung Electronics Co., Ltd. | Method and apparatus for performing horizontal federated learning |
| CN113689005A (zh) * | 2021-09-07 | 2021-11-23 | 三星电子(中国)研发中心 | 一种增强型横向联邦学习方法和装置 |
| US12488140B2 (en) | 2021-09-07 | 2025-12-02 | Samsung Electronics Co., Ltd. | Method and apparatus for performing horizontal federated learning |
| CN114283341B (zh) * | 2022-03-04 | 2022-05-17 | 西南石油大学 | 一种高转移性对抗样本生成方法、系统及终端 |
| CN114283341A (zh) * | 2022-03-04 | 2022-04-05 | 西南石油大学 | 一种高转移性对抗样本生成方法、系统及终端 |
| CN114611607A (zh) * | 2022-03-14 | 2022-06-10 | 腾讯科技(上海)有限公司 | 一种模型训练方法以及相关装置 |
| CN114611607B (zh) * | 2022-03-14 | 2025-05-30 | 腾讯科技(上海)有限公司 | 一种模型训练方法以及相关装置 |
| CN114978899A (zh) * | 2022-05-11 | 2022-08-30 | 业成科技(成都)有限公司 | AIoT设备更新方法和装置 |
| CN114978899B (zh) * | 2022-05-11 | 2024-04-16 | 业成光电(深圳)有限公司 | AIoT设备更新方法和装置 |
| CN116644802A (zh) * | 2023-07-19 | 2023-08-25 | 支付宝(杭州)信息技术有限公司 | 模型训练方法及装置 |
| CN120378186A (zh) * | 2025-05-15 | 2025-07-25 | 联通智网科技股份有限公司 | 多云场景的预警方法及相应装置 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN111625820A (zh) | 一种基于面向AIoT安全的联邦防御方法 | |
| CN115333825A (zh) | 针对联邦学习神经元梯度攻击的防御方法 | |
| CN110113314A (zh) | 用于动态威胁分析的网络安全领域知识图谱构建方法及装置 | |
| CN112597993A (zh) | 基于补丁检测的对抗防御模型训练方法 | |
| CN109858282B (zh) | 一种社交网络关系数据隐私保护方法及系统 | |
| Qiu et al. | Born this way: A self-organizing evolution scheme with motif for internet of things robustness | |
| CN114760104A (zh) | 一种物联网环境下的分布式异常流量检测方法 | |
| CN111181930A (zh) | DDoS攻击检测的方法、装置、计算机设备及存储介质 | |
| CN118627594A (zh) | 一种基于生成对抗网络的联邦学习图像推理攻击方法 | |
| CN113837398A (zh) | 一种基于联邦学习的图分类任务中毒攻击方法 | |
| CN118400087A (zh) | 一种基于区块链的可验证隐私保护联邦学习方法 | |
| CN114205816B (zh) | 一种电力移动物联网信息安全架构及其使用方法 | |
| Zhou et al. | Novel defense schemes for artificial intelligence deployed in edge computing environment | |
| CN112560059B (zh) | 一种基于神经通路特征提取的垂直联邦下模型窃取防御方法 | |
| CN117829272A (zh) | 基于节点行为分析的联邦建模方法、装置、设备及介质 | |
| CN115913616B (zh) | 基于异构图异常链路发现的横向移动攻击检测方法及装置 | |
| CN116050546A (zh) | 一种数据非独立同分布下的拜占庭鲁棒的联邦学习方法 | |
| CN115758350A (zh) | 抗投毒攻击的聚合防御方法、聚合装置及电子设备 | |
| CN116484923A (zh) | 基于区块链和数据增强的联邦学习训练方法及系统 | |
| CN106411923B (zh) | 基于本体建模的网络风险评估方法 | |
| CN118015287B (zh) | 一种基于域纠正适应器的跨域小样本分割方法 | |
| CN118101339B (zh) | 一种应对物联网隐私保护的联邦知识蒸馏方法 | |
| CN119445337A (zh) | 一种基于强化学习的人脸识别联邦学习系统后门攻击方法 | |
| CN119299163A (zh) | 一种基于微分博弈的车联网病毒传播防御策略优化方法 | |
| CN115913749B (zh) | 基于去中心化联邦学习的区块链DDoS检测方法 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication | ||
| SE01 | Entry into force of request for substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200904 |
|
| RJ01 | Rejection of invention patent application after publication |