[go: up one dir, main page]

CN116418687A - 低能耗无线联邦学习系统的参数优化和资源分配方法 - Google Patents

低能耗无线联邦学习系统的参数优化和资源分配方法 Download PDF

Info

Publication number
CN116418687A
CN116418687A CN202310196400.3A CN202310196400A CN116418687A CN 116418687 A CN116418687 A CN 116418687A CN 202310196400 A CN202310196400 A CN 202310196400A CN 116418687 A CN116418687 A CN 116418687A
Authority
CN
China
Prior art keywords
optimization
edge server
model
intelligent terminal
federal learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310196400.3A
Other languages
English (en)
Inventor
朱旭
董志浩
蒋宇飞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Institute of Technology Shenzhen
Original Assignee
Harbin Institute of Technology Shenzhen
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Institute of Technology Shenzhen filed Critical Harbin Institute of Technology Shenzhen
Priority to CN202310196400.3A priority Critical patent/CN116418687A/zh
Publication of CN116418687A publication Critical patent/CN116418687A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/14Network analysis or design
    • H04L41/145Network analysis or design involving simulating, designing, planning or modelling of a network
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0803Configuration setting
    • H04L41/0823Configuration setting characterised by the purposes of a change of settings, e.g. optimising configuration for enhancing reliability
    • H04L41/0833Configuration setting characterised by the purposes of a change of settings, e.g. optimising configuration for enhancing reliability for reduction of network energy consumption
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

本发明公开了一种低能耗无线联邦学习系统的参数优化和资源分配方法,构建低能耗无线联邦学习系统模型并建立联邦学习流程;以最小化系统模型能耗为优化目标,建立联合参数优化和资源分配问题,将联合参数优化和资源分配问题拆分为聚合间隔优化子问题并计算得到最优聚合间隔、频率优化子问题并计算得到最优计算频率、带宽分配优化子问题并计算得到最优带宽分配和传输功率优化子问题并计算得到智能终端和边缘服务器的最优传输功率。本发明对无线通信和模型训练的多个变量进行联合优化,在模型训练性能的限制下,最小化联邦学习过程中的系统能耗,本发明方法可以明显降低系统能耗。

Description

低能耗无线联邦学习系统的参数优化和资源分配方法
技术领域
本发明属于无线通信技术领域,具体涉及一种低能耗无线联邦学习系统的参数优化和资源分配方法。
背景技术
相比于传统的集中式机器学习模型训练方式,联邦学习可以充分利用分布式智能终端的本地数据和计算资源,在保护智能终端数据隐私和节省通信资源的前提下,有效完成机器学习模型的分布式训练。然而,在混合式无线异构网络中,智能终端的工作时间往往受其有限能量储备的限制。因此,如何在保证模型训练性能的前提下有效地降低系统能耗,成为联邦学习亟待解决的问题之一。
发明内容
本发明针对上述问题,提供了一种低能耗无线联邦学习系统的参数优化和资源分配方法,针对在无线联邦学习系统中,能耗主要包括模型训练的计算能耗和模型参数传输的通信能耗,设计了一个降低能耗的参数优化和资源分配方法。
本发明的技术方案如下:
一种低能耗无线联邦学习系统的参数优化和资源分配方法,包括以下步骤:
构建低能耗无线联邦学习系统模型,包括一个云服务器、N个边缘服务器和M个智能终端,基于低能耗无线联邦学习系统模型建立联邦学习流程;
以最小化系统模型能耗为优化目标,限定与聚合间隔相关的智能终端本地模型训练次数、智能终端的计算频率、系统带宽分配以及智能终端和边缘服务器的传输功率,建立联合参数优化和资源分配问题,
将联合参数优化和资源分配问题拆分为聚合间隔优化子问题并计算得到最优聚合间隔、频率优化子问题并计算得到最优计算频率、带宽分配优化子问题并计算得到最优带宽分配和传输功率优化子问题并计算得到智能终端和边缘服务器的最优传输功率。
本发明的进一步技术方案是:基于低能耗无线联邦学习系统模型建立联邦学习流程,具体包括以下步骤:
S1、云服务器通过边缘服务器向所有智能终端广播全局模型及其当前参数值;
S2、智能终端利用本地数据对接收到的全局模型进行迭代训练,κ1次本地迭代训练完成后,智能终端将训练更新后的全局模型参数即本地模型参数上传至边缘服务器;
S3、在关联的智能终端都上传参数后,边缘服务器将接收的模型参数聚合为边缘模型的参数,并通过组播下放至边缘服务器关联的所有智能终端;
S4、对S2和S3迭代执行κ2次后,边缘服务器将边缘模型的参数上传至云服务器;
S5、在所有边缘服务器都上传边缘模型参数后,云服务器聚合接收的模型参数,并依据聚合后的模型参数更新全局模型;
S6、迭代执行S1至S5,直至全局模型收敛或达到预设的精度值。
本发明的进一步技术方案是:所述方法还包括基于联邦学习流程计算智能终端在本地迭代训练中的计算时延和计算能耗、智能终端向边缘服务器上传全局模型参数的速率以及边缘服务器的组播速率,具体包括:
智能终端m在一次本地迭代训练中的计算时延为:Tm,cop=vmCDm/fm,其中,vm为终端处理单位比特样本数据所需的CPU轮数,C是样本数据的比特大小,Dm是终端的样本数量,fm为智能终端计算频率,相应的智能终端的计算能耗表示为:
Figure BDA0004107294660000021
其中,δ是智能终端的能量消耗系数;
智能终端m向边缘服务器n上传本地模型参数时的速率为:
Figure BDA0004107294660000022
其中,Bn为边缘服务器n的带宽,pm为智能终端m的传输功率,gn,m为信道增益,N0为加性噪声功率;智能终端的参数上传时间为Tm,com=W/Rm,其中W为上传模型参数的比特大小,智能终端的通信能耗为Em,com=pmTm,com
边缘服务器n的组播速率为:
Figure BDA0004107294660000023
其中,pn为边缘服务器n的传输功率,Cn为与边缘服务器n相关联的所有智能终端的索引集合,边缘服务器的下行链路组播时延为Tn,com=W/Rn,边缘服务器的通信能耗为En,com=pnTn,com
本发明的进一步技术方案是:系统模型能耗的具体表达式为:
Figure BDA0004107294660000024
本发明的进一步技术方案是:所述联合参数优化和资源分配问题的具体表达式为:
Figure BDA0004107294660000031
其中,
Figure BDA0004107294660000032
表示聚合间隔集合,/>
Figure BDA0004107294660000033
表示计算频率集合,
Figure BDA0004107294660000034
表示带宽集合,/>
Figure BDA0004107294660000035
表示传输功率集合,κglob为一轮全局模型迭代中的本地模型训练次数,fm,max为终端最大计算频率,/>
Figure BDA0004107294660000036
和/>
Figure BDA0004107294660000037
为智能终端的最大计算时间和最大通信时间,Tn,max为边缘服务器组播的最大时延,Btotal为系统总带宽,Bmin和Bmax分别为边缘服务器的最小带宽和最大带宽,pm,max和pn,max分别为智能终端的最大传输功率和边缘服务器的最大传输功率,Em,max和En,max分别为智能终端的最大能耗和边缘服务器的最大能耗。
本发明的进一步技术方案是:将联合参数优化和资源分配问题拆分为聚合间隔优化子问题并计算得到最优聚合间隔,具体表达式为:
Figure BDA0004107294660000038
Figure BDA0004107294660000039
本发明的进一步技术方案是:将联合参数优化和资源分配问题拆分为频率优化子问题并计算得到最优计算频率,具体表达式为:
Figure BDA00041072946600000310
本发明的进一步技术方案是:将联合参数优化和资源分配问题拆分为传输功率优化子问题并计算得到智能终端和边缘服务器的最优传输功率,具体表达式为:
Figure BDA0004107294660000041
本发明的进一步技术方案是:将联合参数优化和资源分配问题拆分为带宽分配优化子问题并计算得到最优带宽分配,其中最优带宽分配采用凸优化工具箱实现。
本发明提供的一种低能耗无线联邦学习系统的参数优化和资源分配方法,构建了低能耗无线联邦学习系统模型,基于低能耗无线联邦学习系统模型建立联邦学习流程;以最小化系统模型能耗为优化目标,建立联合参数优化和资源分配问题,将联合参数优化和资源分配问题拆分为聚合间隔优化子问题并计算得到最优聚合间隔、频率优化子问题并计算得到最优计算频率、带宽分配优化子问题并计算得到最优带宽分配和传输功率优化子问题并计算得到智能终端和边缘服务器的最优传输功率。本发明对无线通信和模型训练的多个变量进行联合优化,在模型训练性能的限制下,最小化联邦学习过程中的系统能耗,与其他方案相比,本发明方法显著优于对比方案,可以明显降低系统能耗。
附图说明
图1是本发明实施例中低能耗无线联邦学习系统的参数优化和资源分配方法流程示意图;
图2是本发明实施例中无线分层联邦学习系统模型结构示意图;
图3是本发明实施例中不同优化方案下系统能耗随边缘服务器所关联的智能终端数目的变化趋势对比图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅出示了与本发明相关的部分而非全部结构。
在更加详细地讨论示例性实施例之前应当提到的是,一些示例性实施例被描述成作为流程图描绘的处理或方法。虽然流程图将各步骤描述成顺序的处理,但是其中的许多步骤可以被并行地、并发地或者同时实施。此外,各步骤的顺序可以被重新安排。当其操作完成时所述处理可以被终止,但是还可以具有未包括在附图中的附加步骤。所述处理可以对应于方法、函数、规程、子例程、子程序等等。
如图1所示,实施例中一种低能耗无线联邦学习系统的参数优化和资源分配方法,包括以下步骤:
构建低能耗无线联邦学习系统模型,包括一个云服务器、N个边缘服务器和M个智能终端,基于低能耗无线联邦学习系统模型建立联邦学习流程;
以最小化系统模型能耗为优化目标,限定与聚合间隔相关的智能终端本地模型训练次数、智能终端的计算频率、系统带宽分配以及智能终端和边缘服务器的传输功率,建立联合参数优化和资源分配问题;
将联合参数优化和资源分配问题拆分为聚合间隔优化子问题并计算得到最优聚合间隔、频率优化子问题并计算得到最优计算频率、带宽分配优化子问题并计算得到最优带宽分配和传输功率优化子问题并计算得到智能终端和边缘服务器的最优传输功率。
具体实施过程中,如图2所示,实施例提供的一种无线分层联邦学习系统,该系统包含一个云服务器、N个边缘服务器和M个智能终端。云服务器与各边缘服务器之间通过高性能有线回程链路连接,边缘服务器与其关联的各智能终端之间无线通信链路连接。
优选地,基于低能耗无线联邦学习系统模型建立联邦学习流程,具体包括以下步骤:
S1、云服务器通过边缘服务器向所有智能终端广播全局模型及其当前参数值;
S2、智能终端利用本地数据对接收到的全局模型进行迭代训练,κ1次本地迭代训练完成后,智能终端将训练更新后的全局模型参数即本地模型参数上传至边缘服务器;
S3、在关联的智能终端都上传参数后,边缘服务器将接收的模型参数聚合为边缘模型的参数,并通过组播下放至边缘服务器关联的所有智能终端;
S4、对S2和S3迭代执行κ2次后,边缘服务器将边缘模型的参数上传至云服务器;
S5、在所有边缘服务器都上传边缘模型参数后,云服务器聚合接收的模型参数,并依据聚合后的模型参数更新全局模型;
S6、迭代执行S1至S5,直至全局模型收敛或达到预设的精度值。至此,该联邦学习系统的机器学习模型训练过程结束。
具体实施过程中,基于联邦学习流程计算智能终端在本地迭代训练中的计算时延和计算能耗、智能终端向边缘服务器上传全局模型参数的速率以及边缘服务器的组播速率,具体包括:
智能终端m在一次本地迭代训练中的计算时延为:Tm,cop=vmCDm/fm,其中,vm为终端处理单位比特样本数据所需的CPU轮数,C是样本数据的比特大小,Dm是终端的样本数量,fm为智能终端计算频率,相应的智能终端的计算能耗表示为:
Figure BDA0004107294660000051
其中,δ是智能终端的能量消耗系数;
智能终端m向边缘服务器n上传本地模型参数时的速率为:
Figure BDA0004107294660000061
其中,Bn为边缘服务器n的带宽,pm为智能终端m的传输功率,gn,m为信道增益,N0为加性噪声功率;智能终端的参数上传时间为Tm,com=W/Rm,其中W为上传模型参数的比特大小,智能终端的通信能耗为Em,com=pmTm,com
边缘服务器n的组播速率为:
Figure BDA0004107294660000062
其中,pn为边缘服务器n的传输功率,/>
Figure BDA0004107294660000063
为与边缘服务器n相关联的所有智能终端的索引集合,边缘服务器的下行链路组播时延为Tn,com=W/Rn,边缘服务器的通信能耗为En,com=pnTn,com
另外,系统内的无线通信链路采用“混合频时带宽分配”方案,系统总带宽采用频分的方式被分配给各边缘服务器,各智能终端采用时分的方式轮流使用其边缘服务器所分配到的带宽。
进一步地,系统模型能耗的具体表达式为:
Figure BDA0004107294660000064
实施例以最小化上述定义中的系统能耗为目标,联合进行参数优化和资源分配,具体涉及聚合间隔
Figure BDA0004107294660000065
计算频率/>
Figure BDA0004107294660000066
带宽分配/>
Figure BDA0004107294660000067
以及传输功率/>
Figure BDA0004107294660000068
联合参数优化和资源分配问题可以建模为:
Figure BDA0004107294660000069
其中,
Figure BDA00041072946600000610
表示聚合间隔集合,/>
Figure BDA00041072946600000611
表示计算频率集合,
Figure BDA0004107294660000071
表示带宽集合,/>
Figure BDA0004107294660000072
表示传输功率集合,κglob为一轮全局模型迭代中的本地模型训练次数,fm,max为终端最大计算频率,/>
Figure BDA0004107294660000073
和/>
Figure BDA0004107294660000074
为智能终端的最大计算时间和最大通信时间,Tn,max为边缘服务器组播的最大时延,Btotal为系统总带宽,Bmin和Bmax分别为边缘服务器的最小带宽和最大带宽,pm,max和pn,max分别为智能终端的最大传输功率和边缘服务器的最大传输功率,Em,max和En,max分别为智能终端的最大能耗和边缘服务器的最大能耗。
优选地,实施例将上述联合优化问题拆分为聚合间隔优化、计算频率优化、带宽分配优化和传输功率优化四个子问题:
其中,将联合参数优化和资源分配问题拆分为聚合间隔优化子问题并计算得到最优聚合间隔,具体表达式为:
Figure BDA0004107294660000075
Figure BDA0004107294660000076
将联合参数优化和资源分配问题拆分为频率优化子问题并计算得到最优计算频率,具体表达式为:
Figure BDA0004107294660000077
将联合参数优化和资源分配问题拆分为传输功率优化子问题并计算得到智能终端和边缘服务器的最优传输功率,具体表达式为:
Figure BDA0004107294660000078
另外,将联合参数优化和资源分配问题拆分为带宽分配优化子问题并计算得到最优带宽分配,其中最优带宽分配采用凸优化工具箱实现。
基于低能耗无线联邦学习的参数优化和资源分配方法流程总结在如下的算法1中:
Figure BDA0004107294660000079
Figure BDA0004107294660000081
为了更好地体现本发明的有效性,实施例进行了仿真实验。图3展现了在不同优化方案下,系统能耗随边缘服务器所关联的智能终端数目的变化趋势。实验将系统智能终端总数目M分别设置为2000和3000。可以观察到,本发明提出的参数优化和资源分配方法可以与联合优化问题的穷举搜索算法保持一致,同时显著优于对比方案,可以明显降低系统能耗。
通过实施例可以看出,本发明提供的一种低能耗无线联邦学习系统的参数优化和资源分配方法,构建了低能耗无线联邦学习系统模型,基于低能耗无线联邦学习系统模型建立联邦学习流程;以最小化系统模型能耗为优化目标,建立联合参数优化和资源分配问题,将联合参数优化和资源分配问题拆分为聚合间隔优化子问题并计算得到最优聚合间隔、频率优化子问题并计算得到最优计算频率、带宽分配优化子问题并计算得到最优带宽分配和传输功率优化子问题并计算得到智能终端和边缘服务器的最优传输功率。本发明对无线通信和模型训练的多个变量进行联合优化,在模型训练性能的限制下,最小化联邦学习过程中的系统能耗,与其他方案相比,本发明方法显著优于对比方案,可以明显降低系统能耗。
在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的步骤、方法不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种步骤、方法所固有的要素。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。

Claims (9)

1.一种低能耗无线联邦学习系统的参数优化和资源分配方法,其特征在于,包括以下步骤:
构建低能耗无线联邦学习系统模型,包括一个云服务器、N个边缘服务器和M个智能终端,基于低能耗无线联邦学习系统模型建立联邦学习流程;
以最小化系统模型能耗为优化目标,限定与聚合间隔相关的智能终端本地模型训练次数、智能终端的计算频率、系统带宽分配以及智能终端和边缘服务器的传输功率,建立联合参数优化和资源分配问题,
将联合参数优化和资源分配问题拆分为聚合间隔优化子问题并计算得到最优聚合间隔、频率优化子问题并计算得到最优计算频率、带宽分配优化子问题并计算得到最优带宽分配和传输功率优化子问题并计算得到智能终端和边缘服务器的最优传输功率。
2.根据权利要求1所述的低能耗无线联邦学习系统的参数优化和资源分配方法,其特征在于,基于低能耗无线联邦学习系统模型建立联邦学习流程,具体包括以下步骤:
S1、云服务器通过边缘服务器向所有智能终端广播全局模型及其当前参数值;
S2、智能终端利用本地数据对接收到的全局模型进行迭代训练,κ1次本地迭代训练完成后,智能终端将训练更新后的全局模型参数即本地模型参数上传至边缘服务器;
S3、在关联的智能终端都上传参数后,边缘服务器将接收的模型参数聚合为边缘模型的参数,并通过组播下放至边缘服务器关联的所有智能终端;
S4、对S2和S3迭代执行κ2次后,边缘服务器将边缘模型的参数上传至云服务器;
S5、在所有边缘服务器都上传边缘模型参数后,云服务器聚合接收的模型参数,并依据聚合后的模型参数更新全局模型;
S6、迭代执行S1至S5,直至全局模型收敛或达到预设的精度值。
3.根据权利要求2所述的低能耗无线联邦学习系统的参数优化和资源分配方法,其特征在于,所述方法还包括基于联邦学习流程计算智能终端在本地迭代训练中的计算时延和计算能耗、智能终端向边缘服务器上传全局模型参数的速率以及边缘服务器的组播速率,具体包括:
智能终端m在一次本地迭代训练中的计算时延为:Tm,cop=vmCDm/fm,其中,vm为终端处理单位比特样本数据所需的CPU轮数,C是样本数据的比特大小,Dm是终端的样本数量,fm为智能终端计算频率,相应的智能终端的计算能耗表示为:
Figure FDA0004107294650000011
其中,δ是智能终端的能量消耗系数;
智能终端m向边缘服务器n上传本地模型参数时的速率为:
Figure FDA0004107294650000012
其中,Bn为边缘服务器n的带宽,pm为智能终端m的传输功率,gn,m为信道增益,N0为加性噪声功率;智能终端的参数上传时间为Tm,com=W/Rm,其中W为上传模型参数的比特大小,智能终端的通信能耗为Em,com=pmTm,com
边缘服务器n的组播速率为:
Figure FDA0004107294650000021
其中,pn为边缘服务器n的传输功率,/>
Figure FDA0004107294650000022
为与边缘服务器n相关联的所有智能终端的索引集合,边缘服务器的下行链路组播时延为Tn,com=W/Rn,边缘服务器的通信能耗为En,com=pnTn,com
4.根据权利要求3所述的低能耗无线联邦学习系统的参数优化和资源分配方法,其特征在于,系统模型能耗的具体表达式为:
Figure FDA0004107294650000023
5.根据权利要求4所述的低能耗无线联邦学习系统的参数优化和资源分配方法,其特征在于,所述联合参数优化和资源分配问题的具体表达式为:
Figure FDA0004107294650000024
s.t.(C1)
Figure FDA0004107294650000025
(C2)
Figure FDA0004107294650000026
(C3)
Figure FDA0004107294650000027
(C4)
Figure FDA0004107294650000028
(C5)
Figure FDA0004107294650000029
(C6)
Figure FDA00041072946500000210
(C7)
Figure FDA00041072946500000211
(C8)
Figure FDA00041072946500000212
(C9)
Figure FDA00041072946500000213
(C10)
Figure FDA00041072946500000214
其中,
Figure FDA00041072946500000215
表示聚合间隔集合,/>
Figure FDA00041072946500000216
表示计算频率集合,
Figure FDA00041072946500000217
表示带宽集合,/>
Figure FDA00041072946500000218
表示传输功率集合,κglob为一轮全局模型迭代中的本地模型训练次数,fm,max为终端最大计算频率,/>
Figure FDA00041072946500000219
和/>
Figure FDA00041072946500000220
为智能终端的最大计算时间和最大通信时间,Tn,max为边缘服务器组播的最大时延,Btotal为系统总带宽,Bmin和Bmax分别为边缘服务器的最小带宽和最大带宽,pm,max和pn,max分别为智能终端的最大传输功率和边缘服务器的最大传输功率,Em,max和En,max分别为智能终端的最大能耗和边缘服务器的最大能耗。
6.根据权利要求5所述的低能耗无线联邦学习系统的参数优化和资源分配方法,其特征在于,将联合参数优化和资源分配问题拆分为聚合间隔优化子问题并计算得到最优聚合间隔,具体表达式为:
Figure FDA0004107294650000031
7.根据权利要求5所述的低能耗无线联邦学习系统的参数优化和资源分配方法,其特征在于,将联合参数优化和资源分配问题拆分为频率优化子问题并计算得到最优计算频率,具体表达式为:
Figure FDA0004107294650000032
8.根据权利要求5所述的低能耗无线联邦学习系统的参数优化和资源分配方法,其特征在于,将联合参数优化和资源分配问题拆分为传输功率优化子问题并计算得到智能终端和边缘服务器的最优传输功率,具体表达式为:
Figure FDA0004107294650000033
9.根据权利要求5所述的低能耗无线联邦学习系统的参数优化和资源分配方法,其特征在于,将联合参数优化和资源分配问题拆分为带宽分配优化子问题并计算得到最优带宽分配,其中最优带宽分配采用凸优化工具箱实现。
CN202310196400.3A 2023-03-03 2023-03-03 低能耗无线联邦学习系统的参数优化和资源分配方法 Pending CN116418687A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310196400.3A CN116418687A (zh) 2023-03-03 2023-03-03 低能耗无线联邦学习系统的参数优化和资源分配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310196400.3A CN116418687A (zh) 2023-03-03 2023-03-03 低能耗无线联邦学习系统的参数优化和资源分配方法

Publications (1)

Publication Number Publication Date
CN116418687A true CN116418687A (zh) 2023-07-11

Family

ID=87055626

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310196400.3A Pending CN116418687A (zh) 2023-03-03 2023-03-03 低能耗无线联邦学习系统的参数优化和资源分配方法

Country Status (1)

Country Link
CN (1) CN116418687A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117521778A (zh) * 2023-10-25 2024-02-06 广东工业大学 一种拆分联邦学习的成本优化方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115278708A (zh) * 2022-07-25 2022-11-01 中国电子科技集团公司第五十四研究所 一种面向联邦学习的移动边缘计算资源管理方法
CN115293256A (zh) * 2022-08-02 2022-11-04 西北大学 一种由区块链辅助的联邦学习无线网络模型
WO2022257348A1 (zh) * 2021-06-08 2022-12-15 重庆邮电大学 一种不确定网络环境中的任务卸载和资源分配方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022257348A1 (zh) * 2021-06-08 2022-12-15 重庆邮电大学 一种不确定网络环境中的任务卸载和资源分配方法
CN115278708A (zh) * 2022-07-25 2022-11-01 中国电子科技集团公司第五十四研究所 一种面向联邦学习的移动边缘计算资源管理方法
CN115293256A (zh) * 2022-08-02 2022-11-04 西北大学 一种由区块链辅助的联邦学习无线网络模型

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ZHIHAO DONG ET AL.: "Fuzzy Logic Assisted Client Selection and Energy-Efficient Joint Optimization for Hierarchical Federated Learning", IEEE, 23 October 2023 (2023-10-23) *
张菁: "基于云边端协同的MEC任务卸载问题研究", 中国优秀硕士学位论文全文数据库, 31 January 2023 (2023-01-31) *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117521778A (zh) * 2023-10-25 2024-02-06 广东工业大学 一种拆分联邦学习的成本优化方法

Similar Documents

Publication Publication Date Title
CN111913723B (zh) 基于流水线的云-边-端协作卸载方法和系统
CN109814951B (zh) 移动边缘计算网络中任务卸载及资源分配的联合优化方法
CN111405569A (zh) 基于深度强化学习的计算卸载和资源分配方法及装置
CN112105062B (zh) 时敏条件下移动边缘计算网络能耗最小化策略方法
CN111130911B (zh) 一种基于移动边缘计算的计算卸载方法
CN110429973A (zh) 一种无人机与地面基站协同计算卸载及优化方法
CN113625751A (zh) 面向空地一体联邦学习的无人机位置与资源联合优化方法
CN117521778B (zh) 一种拆分联邦学习的成本优化方法
CN116009677B (zh) 一种基于Cell-Free mMIMO网络的联邦学习设备端能耗优化方法
CN110167178B (zh) 一种含有能量收集的d2d联合资源公平性分配方法
CN114363911A (zh) 一种部署分层联邦学习的无线通信系统及资源优化方法
CN113556764A (zh) 一种基于移动边缘计算网络的计算速率确定方法及系统
CN108009024A (zh) Ad-hoc云环境中分布式博弈任务卸载方法
CN116418687A (zh) 低能耗无线联邦学习系统的参数优化和资源分配方法
CN110190981B (zh) 一种基于非正交多址接入的多任务计算迁移能耗优化方法
CN116634500A (zh) 基于超图匹配计算与通信容量增强的d2d计算卸载方法
CN107426775B (zh) 一种面向高能效异构网络的分布式多用户接入方法
Wang et al. Joint job offloading and resource allocation for distributed deep learning in edge computing
CN115118591A (zh) 一种基于联盟博弈的簇联邦学习方法
CN114327860A (zh) 一种无线联邦学习系统的设计及资源分配方法
CN118590098A (zh) Ris辅助多mec服务器的联合任务卸载和资源分配方法
CN116347646B (zh) 一种基于nr-u的电力互联网联邦学习高效接入方法
CN118133938A (zh) 一种面向联邦学习的模型参数裁剪量化和资源分配策略
CN114630413B (zh) 一种面向能效最优的c-v2v车联网功率控制方法
CN118400751A (zh) 基于平行动作网络结构ppo的dsa能耗优化方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination