Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2507.01825

帮助 | 高级搜索

计算机科学 > 机器学习

arXiv:2507.01825 (cs)
[提交于 2025年7月2日 ]

标题: MILP-SAT-GNN:另一个神经SAT求解器

标题: MILP-SAT-GNN: Yet Another Neural SAT Solver

Authors:Franco Alberto Cardillo, Hamza Khyari, Umberto Straccia
摘要: 我们提出了一种新方法,通过利用一种用于将图神经网络(GNNs)应用于混合整数线性规划(MILP)的技术,使图神经网络(GNNs)能够解决SAT问题。 具体来说,k-CNF公式被映射到MILP问题,然后被编码为加权二分图,并随后输入到GNN中进行训练和测试。 从理论角度来看:(i) 我们建立了排列和等价不变性结果,证明该方法产生的输出在子句和变量重新排序下是稳定的;(ii) 我们识别出一个理论限制,表明对于一类称为可折叠公式的公式,标准GNN无法始终区分可满足和不可满足实例;(iii) 我们证明了一个通用逼近定理,确立了在随机节点初始化(RNI)下,该方法可以在有限数据集上以任意精度逼近SAT求解,即GNN在这种数据集上变得近似正确和完整。 此外,我们表明对于不可展开的公式,无需RNI即可实现相同的逼近保证。 最后,我们对我们的方法进行了实验评估,结果表明,尽管神经架构简单,该方法取得了有希望的结果。
摘要: We proposes a novel method that enables Graph Neural Networks (GNNs) to solve SAT problems by leveraging a technique developed for applying GNNs to Mixed Integer Linear Programming (MILP). Specifically, k-CNF formulae are mapped into MILP problems, which are then encoded as weighted bipartite graphs and subsequently fed into a GNN for training and testing. From a theoretical perspective: (i) we establish permutation and equivalence invariance results, demonstrating that the method produces outputs that are stable under reordering of clauses and variables; (ii) we identify a theoretical limitation, showing that for a class of formulae called foldable formulae, standard GNNs cannot always distinguish satisfiable from unsatisfiable instances; (iii) we prove a universal approximation theorem, establishing that with Random Node Initialization (RNI), the method can approximate SAT solving to arbitrary precision on finite datasets, that is, the GNN becomes approximately sound and complete on such datasets. Furthermore, we show that for unfoldable formulae, the same approximation guarantee can be achieved without the need for RNI. Finally, we conduct an experimental evaluation of our approach, which show that, despite the simplicity of the neural architecture, the method achieves promising results.
主题: 机器学习 (cs.LG) ; 人工智能 (cs.AI)
引用方式: arXiv:2507.01825 [cs.LG]
  (或者 arXiv:2507.01825v1 [cs.LG] 对于此版本)
  https://doi.org/10.48550/arXiv.2507.01825
通过 DataCite 发表的 arXiv DOI(待注册)

提交历史

来自: Umberto Straccia [查看电子邮件]
[v1] 星期三, 2025 年 7 月 2 日 15:39:45 UTC (114 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
cs.LG
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-07
切换浏览方式为:
cs
cs.AI

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号