计算机科学 > 机器学习
[提交于 2025年8月6日
]
标题: GraphProp:使用图属性训练图基础模型
标题: GraphProp: Training the Graph Foundation Models using Graph Properties
摘要: 这项工作专注于训练具有强大泛化能力的图基础模型(GFMs),这些模型在图级任务如图分类中表现优异。 有效的GFM训练需要捕捉不同领域间一致的信息。 我们发现,与节点特征和图标签相比,图结构提供了更多一致的跨领域信息。 然而,传统的GFMs主要关注将不同领域的节点特征转移到统一的表示空间,但往往缺乏结构上的跨领域泛化能力。 为了解决这个问题,我们引入了GraphProp,它强调结构泛化。 GraphProp的训练过程包括两个主要阶段。 首先,我们通过预测图不变量来训练一个结构化的GFM。 由于图不变量是仅依赖于图的抽象结构而非特定标签或绘制方式的图的属性,这种结构化的GFM具有强大的捕捉抽象结构信息的能力,并能提供跨多样化领域的可区分图表示。 在第二阶段,我们使用结构化GFM提供的表示作为位置编码来训练一个全面的GFM。 这一阶段利用领域特定的节点属性和图标签进一步提升跨领域节点特征的泛化能力。 我们的实验表明,GraphProp在监督学习和少样本学习中显著优于竞争对手,尤其是在处理没有节点属性的图时。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.