Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > quant-ph > arXiv:2405.00252

帮助 | 高级搜索

量子物理

arXiv:2405.00252 (quant-ph)
[提交于 2024年4月30日 (v1) ,最后修订 2025年4月29日 (此版本, v3)]

标题: Q-Newton:使用牛顿梯度下降加速神经网络训练的混合量子经典调度

标题: Q-Newton: Hybrid Quantum-Classical Scheduling for Accelerating Neural Network Training with Newton's Gradient Descent

Authors:Pingzhi Li, Junyu Liu, Hanrui Wang, Tianlong Chen
摘要: 深度学习中的优化技术主要由一阶梯度方法引领,例如随机梯度下降(SGD)。 然而,神经网络训练可以极大地受益于二阶优化的快速收敛特性。 牛顿梯度下降在此类别中脱颖而出,它通过使用逆海森矩阵来重新缩放梯度。 然而,其主要瓶颈之一是矩阵求逆,这在$O(N^3)$时间内具有显著的计算时间,且扩展性较弱。 矩阵求逆可以转化为求解一系列线性方程。 鉴于量子线性求解算法(QLSAs),利用量子叠加和纠缠原理,可以在$\text{polylog}(N)$时间范围内运行,它们提供了一种具有指数加速潜力的方法。 具体而言,最近的QLSAs之一展示了复杂度为$O(d\cdot\kappa \log(N\cdot\kappa/\epsilon))$的规模,这取决于矩阵的{大小~$N$,条件数~$\kappa$,误差容限~$\epsilon$,量子预言稀疏性~$d$}。 然而,这也意味着它们的潜在指数优势可能受到某些特性(即$\kappa$和$d$)的阻碍。 我们提出了Q-Newton,一种用于加速牛顿梯度下降神经网络训练的混合量子-经典调度器。 Q-Newton利用一个简化的调度模块,在量子和经典线性求解器之间进行协调,通过估计和减少$\kappa$并为量子求解器构建$d$。 我们的评估展示了Q-Newton相比常用的优化器如SGD显著减少总训练时间的潜力。 我们假设了一个未来场景,其中量子机器的门时间将被减少,这可能通过阿秒物理实现。 我们的评估为量子计算的发展设定了一个雄心勃勃且有前景的目标。
摘要: Optimization techniques in deep learning are predominantly led by first-order gradient methodologies, such as SGD. However, neural network training can greatly benefit from the rapid convergence characteristics of second-order optimization. Newton's GD stands out in this category, by rescaling the gradient using the inverse Hessian. Nevertheless, one of its major bottlenecks is matrix inversion, which is notably time-consuming in $O(N^3)$ time with weak scalability. Matrix inversion can be translated into solving a series of linear equations. Given that quantum linear solver algorithms (QLSAs), leveraging the principles of quantum superposition and entanglement, can operate within a $\text{polylog}(N)$ time frame, they present a promising approach with exponential acceleration. Specifically, one of the most recent QLSAs demonstrates a complexity scaling of $O(d\cdot\kappa \log(N\cdot\kappa/\epsilon))$, depending on: {size~$N$, condition number~$\kappa$, error tolerance~$\epsilon$, quantum oracle sparsity~$d$} of the matrix. However, this also implies that their potential exponential advantage may be hindered by certain properties (i.e. $\kappa$ and $d$). We propose Q-Newton, a hybrid quantum-classical scheduler for accelerating neural network training with Newton's GD. Q-Newton utilizes a streamlined scheduling module that coordinates between quantum and classical linear solvers, by estimating & reducing $\kappa$ and constructing $d$ for the quantum solver. Our evaluation showcases the potential for Q-Newton to significantly reduce the total training time compared to commonly used optimizers like SGD. We hypothesize a future scenario where the gate time of quantum machines is reduced, possibly realized by attoseconds physics. Our evaluation establishes an ambitious and promising target for the evolution of quantum computing.
评论: 我们的代码在 https://github.com/UNITES-Lab/q-newton 提供
主题: 量子物理 (quant-ph) ; 人工智能 (cs.AI); 机器学习 (cs.LG)
引用方式: arXiv:2405.00252 [quant-ph]
  (或者 arXiv:2405.00252v3 [quant-ph] 对于此版本)
  https://doi.org/10.48550/arXiv.2405.00252
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Pingzhi Li [查看电子邮件]
[v1] 星期二, 2024 年 4 月 30 日 23:55:03 UTC (957 KB)
[v2] 星期五, 2025 年 4 月 11 日 19:21:02 UTC (417 KB)
[v3] 星期二, 2025 年 4 月 29 日 06:14:40 UTC (418 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
quant-ph
< 上一篇   |   下一篇 >
新的 | 最近的 | 2024-05
切换浏览方式为:
cs
cs.AI
cs.LG

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号