计算机科学 > 密码学与安全
[提交于 2025年2月2日
]
标题: AGNNCert:使用确定性认证防御图神经网络中的任意扰动
标题: AGNNCert: Defending Graph Neural Networks against Arbitrary Perturbations with Deterministic Certification
摘要: 图神经网络(GNNs)在与图相关的任务中达到最先进水平,例如节点和图分类。 然而,最近的研究表明,GNNs 对对抗性扰动是脆弱的,包括对边、节点和节点特征的扰动,这三种组件构成了一个图。 针对这些攻击的实证防御很快被自适应的攻击所突破。 虽然认证防御提供了鲁棒性保证,但它们面临几个限制:1)几乎所有方法都限制对手的能力仅限于一种类型的扰动,这是不现实的;2)所有方法都是为特定的 GNN 任务设计的,这限制了它们的适用性;和 3)除了一个方法外,所有方法的鲁棒性保证都不是 100% 准确的。 我们通过开发 AGNNCert 来解决所有这些限制,AGNNCert 是第一个针对任意(边、节点和节点特征)扰动的 GNN 认证防御,具有确定性的鲁棒性保证,并适用于最常见的两种节点和图分类任务。 AGNNCert 还包含现有的认证防御作为特例。 在多个基准节点/图分类数据集和两个真实世界图数据集以及多个 GNN 上的广泛评估验证了 AGNNCert 证明性防御任意扰动的有效性。 AGNNCert 在针对单独的边扰动和节点扰动的最先进认证防御方面也显示出其优越性。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.