Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > math > arXiv:2507.11513

帮助 | 高级搜索

数学 > 优化与控制

arXiv:2507.11513 (math)
[提交于 2025年7月15日 ]

标题: 带递归约束的AdaGrad及其在多级和区域分解优化中的应用

标题: Recursive Bound-Constrained AdaGrad with Applications to Multilevel and Domain Decomposition Minimization

Authors:Serge Gratton, Alena Kopaničáková, Philippe Toint
摘要: 两种无需目标函数的噪声容忍算法被提出,它们处理边界约束、不精确梯度并在有二阶信息时加以利用。第一种是一种多级方法,利用问题的分层描述,第二种是一种域分解方法,涵盖标准的加性Schwarz分解。两者都是无约束优化中一阶AdaGrad算法的推广。由于这些算法共享一个共同的理论框架,提供了一个统一的收敛/复杂性理论,涵盖了这两种方法。其主要结果是,以高概率,这两种方法最多需要$O(\epsilon^{-2})$次迭代和噪声梯度评估来计算边界约束问题的一个$\epsilon$-近似的一阶临界点。讨论了在从基于偏微分方程的问题到深度神经网络训练的各种应用中的大量数值实验,展示了它们出色的计算效率。
摘要: Two OFFO (Objective-Function Free Optimization) noise tolerant algorithms are presented that handle bound constraints, inexact gradients and use second-order information when available.The first is a multi-level method exploiting a hierarchical description of the problem and the second is a domain-decomposition method covering the standard addditive Schwarz decompositions. Both are generalizations of the first-order AdaGrad algorithm for unconstrained optimization. Because these algorithms share a common theoretical framework, a single convergence/complexity theory is provided which covers them both. Its main result is that, with high probability, both methods need at most $O(\epsilon^{-2})$ iterations and noisy gradient evaluations to compute an $\epsilon$-approximate first-order critical point of the bound-constrained problem. Extensive numerical experiments are discussed on applications ranging from PDE-based problems to deep neural network training, illustrating their remarkable computational efficiency.
评论: 33页
主题: 优化与控制 (math.OC) ; 人工智能 (cs.AI); 数值分析 (math.NA)
MSC 类: 49K20, 65M55, 65Y20, 68Q25, 68T05, 90C26, 90C30
ACM 类: F.2.1; G.1.8; I.2.5
引用方式: arXiv:2507.11513 [math.OC]
  (或者 arXiv:2507.11513v1 [math.OC] 对于此版本)
  https://doi.org/10.48550/arXiv.2507.11513
通过 DataCite 发表的 arXiv DOI(待注册)

提交历史

来自: Alena Kopanicakova [查看电子邮件]
[v1] 星期二, 2025 年 7 月 15 日 17:32:10 UTC (1,898 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
math.OC
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-07
切换浏览方式为:
cs
cs.AI
cs.NA
math
math.NA

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号