计算机科学 > 机器学习
[提交于 2024年9月1日
]
标题: 更快的图分区方法通过预训练和归纳推理
标题: Towards Faster Graph Partitioning via Pre-training and Inductive Inference
摘要: 图划分(GP)是一个经典问题,即将图的节点集划分为高度连接的块。 在遵循IEEE HPEC图挑战赛以及预训练技术(例如大型语言模型)的最新进展之后,我们基于一种新颖的预训练与精化范式提出了PR-GPT(预训练与精化的图划分)。 首先,我们在具有各种拓扑属性的小型合成图上对深度图学习(DGL)模型进行离线预训练。 通过使用DGL的归纳推理,可以直接将预训练模型(参数冻结)推广到大图,并得出可行的GP结果。 我们还利用得到的划分作为高效GP方法(例如InfoMap)的良好初始化,以进一步提高划分的质量。 在这种情况下,PR-GPT的在线泛化和精化不仅能够从质量方面的迁移能力中受益,还能确保高效的推理效率而无需重新训练。 基于一种通过精化方法减少待处理图规模的机制,PR-GPT还有潜力支持流式GP。 在Graph Challenge基准上的实验表明,与从头开始运行精化方法相比,PR-GPT可以在大规模图上确保更快的GP,且不会出现显著的质量下降。 我们的代码将在https://github.com/KuroginQin/PRGPT公开。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.