Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > quant-ph > arXiv:2412.00645v1

帮助 | 高级搜索

量子物理

arXiv:2412.00645v1 (quant-ph)
[提交于 2024年12月1日 ]

标题: 具有灵活步长的量子卷积神经网络

标题: Quantum Convolutional Neural Network with Flexible Stride

Authors:Kai Yu, Song Lin, Bin-Bin Cai
摘要: 卷积神经网络是机器学习的重要工具,尤其是在计算机视觉领域。 其独特的结构和特性在特征提取方面提供了显著优势。 然而,随着数据规模的指数增长,经典计算架构在时间效率和内存需求方面面临严重挑战。 在本文中,我们提出了一种新型的量子卷积神经网络算法。 它能够在确保所需量子比特不随滑动窗口大小成比例增加的情况下,灵活调整步长以适应不同的任务。 首先,提出了一种基于量子叠加的数据加载方法,能够指数级减少空间需求。 随后,设计了用于卷积层、池化层和全连接层的量子子程序,全面复制了经典卷积神经网络的核心功能。 其中,引入了量子算术技术,通过特征的位置信息恢复相应感受野的数据位置信息,使步长选择更加灵活。 此外,采用了并行量子幅度估计和交换测试技术,实现了并行特征提取。 分析表明,与经典方法相比,该方法在更少内存的情况下能够实现数据规模的指数级加速。 最后,所提出的方法在Qiskit框架上进行了数值模拟,使用MNIST数据集中的手写数字图像。 实验结果为该模型的有效性提供了证据。
摘要: Convolutional neural network is a crucial tool for machine learning, especially in the field of computer vision. Its unique structure and characteristics provide significant advantages in feature extraction. However, with the exponential growth of data scale, classical computing architectures face serious challenges in terms of time efficiency and memory requirements. In this paper, we propose a novel quantum convolutional neural network algorithm. It can flexibly adjust the stride to accommodate different tasks while ensuring that the required qubits do not increase proportionally with the size of the sliding window. First, a data loading method based on quantum superposition is presented, which is able to exponentially reduce space requirements. Subsequently, quantum subroutines for convolutional layers, pooling layers, and fully connected layers are designed, fully replicating the core functions of classical convolutional neural networks. Among them, the quantum arithmetic technique is introduced to recover the data position information of the corresponding receptive field through the position information of the feature, which makes the selection of step size more flexible. Moreover, parallel quantum amplitude estimation and swap test techniques are employed, enabling parallel feature extraction. Analysis shows that the method can achieve exponential acceleration of data scale in less memory compared with its classical counterpart. Finally, the proposed method is numerically simulated on the Qiskit framework using handwritten digital images in the MNIST dataset. The experimental results provide evidence for the effectiveness of the model.
主题: 量子物理 (quant-ph)
引用方式: arXiv:2412.00645 [quant-ph]
  (或者 arXiv:2412.00645v1 [quant-ph] 对于此版本)
  https://doi.org/10.48550/arXiv.2412.00645
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Song Lin [查看电子邮件]
[v1] 星期日, 2024 年 12 月 1 日 02:37:06 UTC (2,537 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
quant-ph
< 上一篇   |   下一篇 >
新的 | 最近的 | 2024-12

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号