量子物理
[提交于 2024年4月30日
(此版本)
, 最新版本 2025年4月29日 (v3)
]
标题: 基于牛顿梯度下降的混合量子经典调度加速神经网络训练
标题: Hybrid Quantum-Classical Scheduling for Accelerating Neural Network Training with Newton's Gradient Descent
摘要: 深度学习中的优化技术主要由一阶梯度方法主导,例如随机梯度下降(SGD)。 然而,神经网络训练可以极大地受益于二阶优化方法的快速收敛特性。 在这一类别中,牛顿梯度下降(Newton's GD)脱颖而出,它通过使用逆海森矩阵对梯度进行缩放。 然而,其主要瓶颈之一是矩阵求逆,这在$O(N^3)$时间内具有较弱的可扩展性,计算时间显著增加。 矩阵求逆可以转化为求解一系列线性方程。 鉴于量子线性求解算法(QLSAs),利用量子叠加和纠缠原理,可以在$\text{polylog}(N)$时间范围内运行,它们提供了一种具有指数加速潜力的有前途的方法。 具体而言,最近的一种 QLSA 展示了复杂度为$O(d\cdot\kappa \log(N\cdot\kappa/\epsilon))$的性能,该性能取决于矩阵的{大小~$N$,条件数~$\kappa$,误差容限~$\epsilon$,量子预言稀疏性~$d$}。 然而,这也意味着它们的潜在指数优势可能受到某些特性(即$\kappa$和$d$)的阻碍。 我们提出了 Q-Newton,一种用于加速牛顿梯度下降神经网络训练的混合量子-经典调度器。 Q-Newton 使用一个简化的调度模块,通过估计和减少$\kappa$并为量子求解器构建$d$,在量子和经典线性求解器之间进行协调。 我们的评估展示了 Q-Newton 相比于常用的优化器如 SGD 可显著减少总训练时间的潜力。 我们假设了一个未来场景,其中量子机器的门时间将被减少,这可能通过阿秒物理实现。 我们的评估为量子计算的发展设定了一个雄心勃勃且有前景的目标。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.