Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > math > arXiv:2506.23819

帮助 | 高级搜索

数学 > 优化与控制

arXiv:2506.23819 (math)
[提交于 2025年6月30日 ]

标题: 数据驱动的参数优化问题性能保证

标题: Data-Driven Performance Guarantees for Parametric Optimization Problems

Authors:Jingyi Huang, Paul Goulart, Kostas Margellos
摘要: 我们提出了一种数据驱动的方法,以建立通过迭代算法求解的参数优化问题的概率性能保证。 我们的方法解决了两个关键挑战:提供收敛保证,以表征达到预定义容差所需的最坏情况迭代次数,并在固定迭代次数后上界一个性能指标。 这些保证对于计算时间有限的在线优化问题特别有用,因为在这些情况下现有的性能保证通常不可用或过于保守。 我们将收敛分析问题表述为基于有限采样参数实例集的场景优化程序。 利用场景优化理论中的工具,使我们能够推导出满足给定容差水平所需的迭代次数的概率保证。 利用场景优化的最新进展,我们进一步引入一种松弛方法,以在迭代次数和违反收敛标准阈值的风险之间进行权衡。 此外,我们通过将固定迭代优化问题转化为场景优化程序,分析了解决方案精度与时间效率之间的权衡。 数值模拟展示了我们方法在提供可靠的概率收敛保证以及评估解决方案精度与计算成本之间权衡方面的有效性。
摘要: We propose a data-driven method to establish probabilistic performance guarantees for parametric optimization problems solved via iterative algorithms. Our approach addresses two key challenges: providing convergence guarantees to characterize the worst-case number of iterations required to achieve a predefined tolerance, and upper bounding a performance metric after a fixed number of iterations. These guarantees are particularly useful for online optimization problems with limited computational time, where existing performance guarantees are often unavailable or unduly conservative. We formulate the convergence analysis problem as a scenario optimization program based on a finite set of sampled parameter instances. Leveraging tools from scenario optimization theory enables us to derive probabilistic guarantees on the number of iterations needed to meet a given tolerance level. Using recent advancements in scenario optimization, we further introduce a relaxation approach to trade the number of iterations against the risk of violating convergence criteria thresholds. Additionally, we analyze the trade-off between solution accuracy and time efficiency for fixed-iteration optimization problems by casting them into scenario optimization programs. Numerical simulations demonstrate the efficacy of our approach in providing reliable probabilistic convergence guarantees and evaluating the trade-off between solution accuracy and computational cost.
主题: 优化与控制 (math.OC)
引用方式: arXiv:2506.23819 [math.OC]
  (或者 arXiv:2506.23819v1 [math.OC] 对于此版本)
  https://doi.org/10.48550/arXiv.2506.23819
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Jingyi Huang [查看电子邮件]
[v1] 星期一, 2025 年 6 月 30 日 13:09:38 UTC (948 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
math.OC
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-06
切换浏览方式为:
math

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号