计算机科学 > 机器学习
[提交于 2025年7月23日
]
标题: 通过分支定界树的顺序优先探索进行高效的神经网络验证
标题: Efficient Neural Network Verification via Order Leading Exploration of Branch-and-Bound Trees
摘要: 神经网络对对抗扰动的脆弱性促使了形式验证技术的发展,这些技术可以严格认证神经网络的质量。 作为最先进的方法,分支定界(BaB)是一种“分而治之”的策略,它将现成的验证器应用于其表现更好的子问题。 虽然BaB可以识别出需要拆分的子问题,但它以一种简单的“先到先得”的方式探索这些子问题的空间,从而导致在达到验证结论时效率低下。 为了弥补这一差距,我们引入了一种对BaB产生的不同子问题的顺序,该顺序涉及它们包含反例的不同可能性。 基于这个顺序,我们提出了一种新的验证框架Oliva,通过优先考虑更有可能找到反例的子问题来探索子问题空间,以高效地达到验证结论。 即使在任何子问题中都无法找到反例,它也只是改变了访问不同子问题的顺序,因此不会导致性能下降。 具体来说,Oliva有两个变体,包括$Oliva^{GR}$,一种总是优先考虑更可能找到反例的子问题的贪心策略,以及$Oliva^{SA}$,一种受模拟退火启发的平衡策略,它逐渐从探索转向利用,以定位全局最优的子问题。 我们在覆盖5个模型的MNIST和CIFAR10数据集上的690个验证问题上对Oliva的性能进行了实验评估。 与最先进的方法相比,我们在MNIST上展示了Oliva高达25倍的加速,在CIFAR10上展示了高达80倍的加速。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.