Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > quant-ph > arXiv:2412.21071

帮助 | 高级搜索

量子物理

arXiv:2412.21071 (quant-ph)
[提交于 2024年12月30日 ]

标题: 研究QAOA参数在Max-Cut问题中的层选择性迁移学习

标题: Investigating layer-selective transfer learning of QAOA parameters for Max-Cut problem

Authors:Francesco Aldo Venturelli, Sreetama Das, Filippo Caruso
摘要: 量子近似优化算法(QAOA)是一种适用于噪声中等规模量子(NISQ)处理器的变分量子算法(VQA),在解决组合优化问题(COPs)方面非常成功。 已经观察到,从一个COP实例中获得的最优变分参数可以转移到另一个实例,为后者产生足够令人满意的解决方案。 在此背景下,进一步提高解决方案的合适方法是微调部分转移的参数。 我们数值地探讨了在参数转移后优化单个QAOA层在改进Max-Cut问题近似解中的作用。 我们还研究了在优化转移后的QAOA参数时,良好近似与所需优化时间之间的权衡。 这些研究显示,与优化所有层相比,优化部分层可以在更低的时间成本下更有效地提升结果。
摘要: Quantum approximate optimization algorithm (QAOA) is a variational quantum algorithm (VQA) ideal for noisy intermediate-scale quantum (NISQ) processors, and is highly successful for solving combinatorial optimization problems (COPs). It has been observed that the optimal variational parameters obtained from one instance of a COP can be transferred to another instance, producing sufficiently satisfactory solutions for the latter. In this context, a suitable method for further improving the solution is to fine-tune a subset of the transferred parameters. We numerically explore the role of optimizing individual QAOA layers in improving the approximate solution of the Max-Cut problem after parameter transfer. We also investigate the trade-off between a good approximation and the required optimization time when optimizing transferred QAOA parameters. These studies show that optimizing a subset of layers can be more effective at a lower time-cost compared to optimizing all layers.
评论: 8页,6图。欢迎提出意见
主题: 量子物理 (quant-ph) ; 无序系统与神经网络 (cond-mat.dis-nn); 机器学习 (cs.LG)
引用方式: arXiv:2412.21071 [quant-ph]
  (或者 arXiv:2412.21071v1 [quant-ph] 对于此版本)
  https://doi.org/10.48550/arXiv.2412.21071
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Sreetama Das [查看电子邮件]
[v1] 星期一, 2024 年 12 月 30 日 16:41:16 UTC (213 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
quant-ph
< 上一篇   |   下一篇 >
新的 | 最近的 | 2024-12
切换浏览方式为:
cond-mat
cond-mat.dis-nn
cs
cs.LG

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号