计算机科学 > 机器学习
[提交于 2025年4月15日
]
标题: 基于马尔可夫采样的异构联邦随机逼近的更紧有限时间界
标题: Achieving Tighter Finite-Time Rates for Heterogeneous Federated Stochastic Approximation under Markovian Sampling
摘要: 受协作强化学习(RL)和具有时间相关数据的优化问题的启发,我们研究了一个通用的联邦随机逼近问题,涉及$M$个代理,其中每个代理由特定于代理的(可能是非线性的)局部算子表征。 目标是让代理通过服务器间歇性通信,找到代理局部算子平均值的根。 我们的设定之所以具有通用性,是因为允许(i)每个代理处存在马尔可夫数据,以及(ii)代理局部算子的根存在异质性。 最近的少数工作虽然考虑了联邦设置中的这两个特性,但未能保证收敛到期望点,也无法展示协作的任何好处;此外,它们依赖算法中的投影步骤来保证迭代有界。 我们的工作克服了这些限制。 我们开发了一种新的算法,名为\texttt{FedHSA},并证明它可以确保收敛到正确点,同时由于协作获得了$M$倍的线性样本复杂度加速。 据我们所知,\emph{这是同类中的第一个有限时间结果}的建立(且无需依赖投影步骤)需要相当复杂的论证,这需要考虑到马尔可夫采样导致的复杂的时间相关性、多步本地计算以节省通信量,以及由异构局部算子引起的漂移效应之间的相互作用。 我们的结果对一类广泛的异构联邦RL问题(例如,策略评估与控制)具有影响,在这些问题中,代理的马尔可夫决策过程可以在概率转移核和奖励函数上有所不同。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.