计算机科学 > 机器学习
[提交于 2025年7月13日
]
标题: 通过机器学习的网络信息聚合
标题: Networked Information Aggregation via Machine Learning
摘要: 我们研究了一个分布式学习问题,其中学习代理嵌入在一个有向无环图(DAG)中。 在特征/标签对上存在一个固定且任意的分布,图中的每个代理或顶点只能直接观察到特征的一个子集——每个代理可能有不同的子集。 代理按照与DAG的拓扑排序一致的顺序依次学习,承诺一个将观察结果映射到实数值标签预测的模型。 每个代理观察DAG中其父节点的预测,并使用他们直接观察到的实例的特征以及父节点的预测作为额外特征来训练他们的模型。 我们询问在这种情况下,什么时候这个过程足以实现\emph{信息聚合},即DAG中某个代理能够学习一个模型,其误差与在某些假设类中可以直接访问\emph{全部}特征的情况下所能学习的最佳模型的误差具有竞争力,尽管网络中没有任何单个代理具有这种访问权限。 我们给出了线性和一般假设类的该问题的上下界。 我们的结果确定了DAG的\emph{深度}作为关键参数:在假设路径上的相关特征都被良好表示的情况下,信息聚合可以在足够长的路径上发生,而且存在一些分布,在线性情况下甚至在任意大的DAG中信息聚合也无法发生(例如,辐条-中心拓扑结构中,辐条顶点共同看到所有特征)。 我们通过一组全面的实验来补充我们的理论结果。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.