统计学 > 机器学习
[提交于 2025年9月8日
]
标题: 从一个图中学习:通过小随机世界几何的归纳学习保证
标题: Learning from one graph: transductive learning guarantees via the geometry of small random worlds
摘要: 自Kipf和Welling在$2017$中引入以来,图卷积网络的主要用途是归纳节点分类,在单个观测图及其特征矩阵中推断缺失标签。 尽管该网络模型被广泛使用,但归纳学习的统计基础仍然有限,因为标准推理框架通常依赖于多个独立样本,而不是单个图。 在本工作中,我们通过开发新的集中度测量工具来弥补这些差距,这些工具通过低维度度量嵌入利用大规模图的几何规律。 涌现的规律性通过随机图模型来捕捉;然而,一旦观察到,这些方法仍适用于确定性图。 我们建立了两个主要的学习结果。 第一个涉及任意确定性$k$顶点图,第二个则针对在$p \in \mathcal{O}((\log (k)/k)^{1/2})$范围内与Erdős-Rényi图$\mathbf{G}=\mathbf{G}(k,p)$共享关键几何特性的随机图。 第一个结果为第二个结果提供了基础并加以阐明。 随后,我们将这些结果扩展到图卷积网络设置中,其中出现了额外的挑战。 最后,即使只有少量标记节点$N$,我们的学习保证仍然具有信息量,并且随着$N$的增长达到最优非参数率$\mathcal{O}(N^{-1/2})$。
当前浏览上下文:
math.ST
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.