分布式机器学习&联邦学习论文阅读笔记(持续更新)_分布式机器学习论文-程序员宅基地

技术标签: 机器学习  分布式  

一、开源框架

FedML

https://github.com/FedML-AI/FedML

二、数据异构问题

FedProx

对FedAvg有两点改进。Local的损失函数加上一项Local模型与全局模型的距离,以控制局部模型与全局模型不要太过偏离,因为数据异构的情况下,局部模型可能收敛方向同全局模型发生偏移。动态调整本地的迭代次数,提高对数据异构的容忍度。
https://arxiv.org/pdf/1812.06127.pdf

Bridging Median and Mean Algorithms(NeurIPS 2020)

基于中位数的算法(SignSGD、MedianSGD)在非同构数据下优化过程中与均值存在gap,通过对传播的梯度增加噪声的方法降低这个gap,使模型更好的收敛。
https://proceedings.neurips.cc/paper/2020/file/f629ed9325990b10543ab5946c1362fb-Paper.pdf

FedProto(AAAI 2022)

联邦学习中的异构问题,除了数据的异构还有模型的异构。本文引用了prototype learning中的概念用于联邦学习,同时解决数据异构和模型异构问题。方法可以概括为如下:
client将本地数据中同一类的数据在representation layer的输出取均值得到每一个类在本地的prototype,将这个表示共享到server,server对同一个类的来自不同client的prototype进行聚合。client在训练时也要在损失函数中加入一项local prototype与global prototype的正则化项。
https://arxiv.org/abs/2105.00243

三、边缘计算负载问题

FedGKT(NeurIPS 2020)

对于大型的CNN,一般的联邦学习方法使得边缘节点承担过大的计算量,而如果使用Split Learning,传播梯度的时候会使通信承担过多的负载。本文简化边缘节点的神经网络模型,将提取出的feature周期性的转移到Server去做分类训练,同时本地还维护一个分类器。另外,还将Server和Client的分类器Softmax输出双向传递,在各自的代价函数中加入二者的KL散度项,使边缘节点和计算中心可以各自得到对方的知识
https://proceedings.neurips.cc/paper/2020/file/a1d4c20b182ad7137ab3606f0e3fc8a4-Paper.pdf

四、通信量压缩

FetchSGD(ICML 2020)

一种压缩通信量的方法。通过sketch(类似于一种哈希)将client经过多轮训练的梯度进行压缩传到Server,Server将收到的数据解压缩,并将多个Client的梯度聚合,使用top-k将模型更新传回到各个节点
https://arxiv.org/pdf/2007.07682v2.pdf

五、个性化联邦学习

Ditto(ICML 2021)

给一般的联邦学习算法增加了一个plugin,即在训练全局模型的同时,维护一个本地模型,本地模型的代价函数增加一项本地模型与全局模型的距离,为这一项配一个超参数lamda,以自适应调整本地模型与全局模型的关联程度,增加局部模型的个性化,应对恶意节点攻击
https://arxiv.org/pdf/2012.04221.pdf

FedAMP(AAAI 2021)

文章的出发点是,当多个节点的数据分布为Non-I.I.D.的时候,直接在Server训练一个全局模型是不合理的。作者提出,对于数据分布相似的节点,应该让他们进行更密切的合作,这样可以训练出更好的个性化模型。具体来说,优化目标变成了
m i n W { G ( W ) : = ∑ i = 1 m F i ( w i ) + λ ∑ i < j m A ( ∣ ∣ w i − w j ∣ ∣ 2 ) } min_{W}\{\mathcal{G}(W):=\sum_{i=1}^mF_{i}(w_{i})+\lambda\sum_{i<j}^mA(||w_{i}-w_{j}||^2)\} minW{ G(W):=i=1mFi(wi)+λi<jmA(wiwj2)}
A函数单调增,且为凹函数,这是一个小技巧,后面会用到。交替优化的时候先优化后一项,经过k轮优化得到一个 U k U^{k} Uk,再优化 G \mathcal{G} G得到各个节点的个性化模型。 U k U^{k} Uk的每一列i可以视作各个模型的线性组合,且与当前节点i的模型的相似度越大,线性组合的系数就越大,原因就在于A函数的凹的性质。于是聚合的时候模型相似的节点之间相互影响就越明显。
https://arxiv.org/abs/2007.03797

pFedHN(ICML2021)

基于Hypernetwork实现个性化的联邦学习,用于解决各个节点的计算能力不平衡、数据分布异构情况下,训练不同节点的个性化模型。由于每个client模型大小不同,无法用Hypernetwork输出全部的参数,因此尝试为不同的client输出固定大小的特征提取器。Hypernetwork的输入是每个client的一个embedding。训练过程中,client独立训练若干轮后,将参数的差值作为误差项反向传播到中心的HN。HN不光将模型参数进行优化,对输入的embedding也进行优化。新加入节点后,固定HN不变而训练优化新增的embedding,以加快训练速度。
https://arxiv.org/pdf/2103.04628.pdf

FedMeta

Meta-Learning和FL的结合版本,实现client的个性化。
Meta-Learning的目标是,对于多个样本分布不同的任务,训练一个公共的模型 θ \theta θ θ \theta θ的目标是对于每个任务,在这个任务的样本下继续训练少量epoch,就能达到很好的效果。本文使用了基于MAML的几种Meta-Learning算法。
对于每个任务的样本集,按比例将其划分为Support Set和Query Set。
MAML算法是,首先在Support Set中计算 θ \theta θ的loss,计算更新后的参数存储在 θ t \theta_t θt中;然后在Support Set中使用模型 θ t \theta_t θt计算loss,并求对 θ \theta θ的梯度,然后更新 θ \theta θhttps://arxiv.org/abs/1703.03400)。
另外两种算法是对MAML的改进。Meta-SGD让inner-loop的学习率不再是常量,FOMAML则是去掉MAML中的二阶项以降低计算规模。
这样一来,FL的个性化与Meta-Learning结合起来的想法就很自然了。
Client先从Server获取模型 θ \theta θ,通过局部训练计算出 θ \theta θ在Query Set上的梯度,将梯度上传给Server;Server的动作是先选取Client,然后发送模型,等待接受梯度,更新模型。
https://arxiv.org/pdf/1802.07876.pdf

Per-FedAvg

思路与FedMeta基本类似,使用了FL的FedAvg计算框架套用了MAML的算法,更偏重于理论分析。
https://arxiv.org/abs/2002.07948

FEDGEN

在一般的基于知识蒸馏的聚合算法中,通常需要server持有一组无标签的代理数据集来辅助知识蒸馏,但是作者认为很多时候这样的要求是很难满足的。FEDGEN的方法是,让每个client共享自己的标签分布,但是不提供x,这样保证了隐私问题,server通过收集client的标签构建全局的标签分布,并且在server端训练一个生成器,根据全局标签分布和client传过来的模型生成符合全局数据分布的样本,将样本下发给client辅助他们进行训练,这些样本是携带所有client的信息的,这些信息可以更好的辅助每一个client的训练。另外,在该系统中client和server相互传输的模型只包含神经网络的最后一层,也就是预测层,一方面这提升了通信效率,另一方面这还更好的保护了隐私。
在我的另一片博客里有对FEDGEN更详细的介绍
论文阅读笔记–Data-Free Knowledge Distillation for Heterogeneous Federated Learning(FEDGEN)
https://arxiv.org/abs/2105.10056

(转载请注明出处)

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/Shawn2134123/article/details/121145105

智能推荐

网络安全(黑客)—2024自学到精通-程序员宅基地

文章浏览阅读822次,点赞20次,收藏24次。网络安全教程从web攻防-通用漏洞、漏洞发现、代码审计、权限提升、免杀对抗、信息打点、内网安全、应急响应等方面全方位的介绍网络安全工程师所需要掌握的各项技能,帮助大家掌握网络信息安全工作中所需掌握的技能,红队中高级,蓝队初中级,CTF-Web选手,SRC猎人等;安全服务,渗透测试,网络安全,安全开发,红队对抗等岗位

【内功修炼】深入理解函数栈帧的创建和销毁-程序员宅基地

文章浏览阅读439次,点赞39次,收藏35次。详解函数栈帧的创建和销毁

MVC模式-程序员宅基地

文章浏览阅读6k次,点赞22次,收藏101次。一、MVC模式简介MVC是一种架构型模式,它本身并不引入新的功能,只是用来指导我们改善应用程序的架构,使得应用的模型和视图相分离,从而得到更好的开发和维护效率。 在MVC模式中,应用程序被划分成了模型(Model)、视图(View)和控制器(Controller)三个部分。其中,模型部分包含了应用程序的业务逻辑和业务数据;视图部分封装了应用程序的输出形式,也就是通常所说的页_mvc模式

macOS下QT设置应用程序图标、程序坞图标_qt macos 软件图标-程序员宅基地

文章浏览阅读2k次,点赞2次,收藏5次。1. 设置应用程序图标(finder中展示的图标)在Qt助手(QT Assistant)中,输入“setting”,可以看到下面的列表中有Setting the Application Icon,双击它就可以看到右侧窗口中的帮助文档,帮助文档里介绍了如何设置应用程序图标。文档内容很全面,包括如何设置windows、OS X和linux的程序图标。这里我们介绍如何设置macOS下应用程序的图标。如Qt助手中介绍的方法,QWindows::setWindowIcon()只能设置在程序坞中展示的图标,_qt macos 软件图标

手把手教你系列之微信公众号 java后端获取code(重定向解决)_微信授权后端重定向获取code可行么-程序员宅基地

文章浏览阅读8.4k次,点赞7次,收藏20次。微信开发文档上,获取code是在前端页面获取,但是现在也不知道为啥非得在后端获取,获取就获取吧,安排一下。获取code的目的,其实就是为了获取openid和token,获取openid和token的目的,其实是为了获取unionid和用户信息。先写个工具类,主要是两个方法,需要的,你们直接复制粘贴就好public class WxGzhUtils {/*** 获取openid access_token* @param appid* @param secret* @param code* _微信授权后端重定向获取code可行么

switch case 语句-程序员宅基地

文章浏览阅读131次。简单介绍了switch case,快来看看吧~

随便推点

Spring Boot + Mybatis + 二级缓存实例(Ehcache,Redis)_springboot+mybatis+ehcahe+redis-程序员宅基地

文章浏览阅读7.1k次。使用Mybatis自带二级缓存MyBatis 包含一个非常强大的查询缓存特性,它可以非常方便地配置和定制。MyBatis 3 中的缓存实现的很多改进都已经实现了,使得它更加强大而且易于配置。默认情况下是没有开启缓存的,除了局部的 session 缓存,可以增强变现而且处理循环 依赖也是必须的。要开启二级缓存,你需要在你的 SQL 映射文件中添加一行:<cache/>..._springboot+mybatis+ehcahe+redis

最新蚂蚁Java岗面经:HashMap+多线程+缓存+中间件(含答案解析)-程序员宅基地

文章浏览阅读175次。蚂蚁一面二叉搜索树和平衡二叉树有什么关系,强平衡二叉树(AVL 树)和弱平衡二叉树(红黑树)有什么区别?B树和B+树的区别,为什么MySQL要使用B+树?HashMap 如何解决 Hash 冲突?epoll 和 poll 的区别,及其应用场景简述线程池原理,FixedThreadPool 用的阻塞队列是什么?sychronized 和 ReentrantLock 的区别..._java用于多线程缓存的map

IDEA下解决Maven依赖冲突_idea如何解决依赖冲突-程序员宅基地

文章浏览阅读891次。但是这个oss对象的依赖包的冲突解决了,但是会出现问题,由于那个common-lang是Apache的工具类,那个标签又不加version标签,如果去掉那里这里的2.3的版本和2.5的版本就都去掉了.显然是不合理的.不建议去掉这里的冲突.目前项目使用的版本号是2.5的.但是有2.3的依赖存在,导致发生了冲突,如果有许多的version的,也只会使用一个其他的就会标红表示发生了依赖冲突的.1.3 目前是发现了冲突所在的详细位置了,接下来就是解决冲突了.点击项目的pom.xml文件._idea如何解决依赖冲突

概率论基础复习题-程序员宅基地

文章浏览阅读912次,点赞13次,收藏11次。显著性水平从0.05降低到0.01,说明拒绝域也减小,在拒绝域大的情况下接受,那么在该拒绝域变小的情况下也定然接受。[3] 茆诗松, 周纪芗. 概率论与数理统计 (第三版). 中国统计出版社, 2007。[4] 陈家鼎等. 数理统计学讲义 (第二版). 高等教育出版社, 2006。[5] 王松桂等. 概率论与数理统计 (第三版). 科学出版社, 2011。[1] 陈希孺. 概率论与数理统计. 中国科学技术大学出版社, 2009。样本方差是总体方差的无偏估计。统计值是一个数值,统计量是一个随机变量。

使用BeanUtils.populate将map集合封装为bean对象_beanutils.populate(customer, map);-程序员宅基地

文章浏览阅读1.3k次。背景把jsp页面中表单的内容存到数据库,和request.getParameterMap配合使用可以将jsp页面表单的数据转化为bean对象。在对象参数比较多的情况下,使用request.getParameter比较麻烦BeanUtils位于org.apache.commons.beanutils.BeanUtils下面,其方法populate的作用解释如下:完整方法:BeanUtils.populate( Object bean, Map properties ),这个方法会遍_beanutils.populate(customer, map);

站长常用的200个js代码-程序员宅基地

文章浏览阅读134次。站长常用的200个js代码1.文本框焦点问题onBlur:当失去输入焦点后产生该事件onFocus:当输入获得焦点后,产生该文件Onchange:当文字值改变时,产生该事件Onselect:当文字加亮后,产生该文件<input type="text" value="郭强" onfocus="if(value=='郭强') {value=''}" onb..._站长之家h5端站点统计js代码

推荐文章

热门文章

相关标签