Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2501.05558

帮助 | 高级搜索

计算机科学 > 神经与进化计算

arXiv:2501.05558 (cs)
[提交于 2025年1月9日 ]

标题: 量子单纯形神经网络

标题: Quantum Simplicial Neural Networks

Authors:Simone Piperno, Claudio Battiloro, Andrea Ceschini, Francesca Dominici, Paolo Di Lorenzo, Massimo Panella
摘要: 图神经网络(GNNs)在从图结构数据中学习方面表现出色,但仅限于建模成对交互,这对于捕捉许多现实系统中存在的高阶关系是不够的。 拓扑深度学习(TDL)通过依赖组合拓扑空间(如单纯复形)实现了对分层高阶交互的系统建模。 同时,量子神经网络(QNNs)被引入以利用量子力学来增强计算和学习能力。 在这项工作中,我们提出了第一个量子拓扑深度学习模型: 量子单纯网络(QSNs),即在单纯复形上运行的QNNs。 QSNs是由量子单纯层组成的堆栈,这些层受到伊辛模型的启发,将高阶结构编码到量子态中。 在合成分类任务上的实验表明,QSNs在准确性和效率方面可以超越经典的单纯TDL模型,证明了将量子计算与TDL结合处理组合拓扑空间数据的潜力。
摘要: Graph Neural Networks (GNNs) excel at learning from graph-structured data but are limited to modeling pairwise interactions, insufficient for capturing higher-order relationships present in many real-world systems. Topological Deep Learning (TDL) has allowed for systematic modeling of hierarchical higher-order interactions by relying on combinatorial topological spaces such as simplicial complexes. In parallel, Quantum Neural Networks (QNNs) have been introduced to leverage quantum mechanics for enhanced computational and learning power. In this work, we present the first Quantum Topological Deep Learning Model: Quantum Simplicial Networks (QSNs), being QNNs operating on simplicial complexes. QSNs are a stack of Quantum Simplicial Layers, which are inspired by the Ising model to encode higher-order structures into quantum states. Experiments on synthetic classification tasks show that QSNs can outperform classical simplicial TDL models in accuracy and efficiency, demonstrating the potential of combining quantum computing with TDL for processing data on combinatorial topological spaces.
评论: 35页,8张表格,6幅图
主题: 神经与进化计算 (cs.NE)
引用方式: arXiv:2501.05558 [cs.NE]
  (或者 arXiv:2501.05558v1 [cs.NE] 对于此版本)
  https://doi.org/10.48550/arXiv.2501.05558
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Claudio Battiloro Dr [查看电子邮件]
[v1] 星期四, 2025 年 1 月 9 日 20:07:25 UTC (542 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
cs.NE
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-01
切换浏览方式为:
cs

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号