Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2507.02953

帮助 | 高级搜索

计算机科学 > 机器人技术

arXiv:2507.02953 (cs)
[提交于 2025年6月29日 ]

标题: 二阶神经控制器策略剪枝的闭式鲁棒性边界

标题: Closed-Form Robustness Bounds for Second-Order Pruning of Neural Controller Policies

Authors:Maksym Shamrai
摘要: 深度神经策略为四旋翼飞行器解锁了敏捷飞行,为机械臂实现了自适应抓取,并为地面机器人提供了可靠的导航,但其数百万个权重与嵌入式微控制器的紧密内存和实时约束相冲突。 二阶剪枝方法,如最优脑损伤(OBD)及其变体,包括最优脑手术(OBS)和最近的SparseGPT,通过利用局部Hessian矩阵在单次传递中压缩网络,实现的稀疏性远高于幅度阈值法。 尽管它们在视觉和语言领域取得了成功,但这种权重移除对闭环稳定性、跟踪精度和安全性的影响仍然不清楚。 我们提出了对非线性离散时间控制中二阶剪枝的第一个数学严格鲁棒性分析。 系统在连续转移映射下演化,而控制器是一个$L$层的多层感知器,具有全局1-Lipschitz类型的ReLU激活函数。 剪枝层$k$的权重矩阵将$W_k$替换为$W_k+\delta W_k$,产生扰动参数向量$\widehat{\Theta}=\Theta+\delta\Theta$和剪枝后的策略$\pi(\cdot;\widehat{\Theta})$。 对于每个输入状态$s\in X$,我们推导出闭式不等式$ \|\pi(s;\Theta)-\pi(s;\widehat{\Theta})\|_2 \le C_k(s)\,\|\delta W_k\|_2, $,其中常数$C_k(s)$仅依赖于未剪枝的谱范数和偏置,并且可以从一次前向传递中以闭式求得。 所推导的界限在领域部署之前指定了与预定控制误差阈值兼容的最大可接受剪枝幅度。 通过将二阶网络压缩与闭环性能保证联系起来,我们的工作缩小了现代深度学习工具与安全关键自主系统鲁棒性需求之间的关键差距。
摘要: Deep neural policies have unlocked agile flight for quadcopters, adaptive grasping for manipulators, and reliable navigation for ground robots, yet their millions of weights conflict with the tight memory and real-time constraints of embedded microcontrollers. Second-order pruning methods, such as Optimal Brain Damage (OBD) and its variants, including Optimal Brain Surgeon (OBS) and the recent SparseGPT, compress networks in a single pass by leveraging the local Hessian, achieving far higher sparsity than magnitude thresholding. Despite their success in vision and language, the consequences of such weight removal on closed-loop stability, tracking accuracy, and safety have remained unclear. We present the first mathematically rigorous robustness analysis of second-order pruning in nonlinear discrete-time control. The system evolves under a continuous transition map, while the controller is an $L$-layer multilayer perceptron with ReLU-type activations that are globally 1-Lipschitz. Pruning the weight matrix of layer $k$ replaces $W_k$ with $W_k+\delta W_k$, producing the perturbed parameter vector $\widehat{\Theta}=\Theta+\delta\Theta$ and the pruned policy $\pi(\cdot;\widehat{\Theta})$. For every input state $s\in X$ we derive the closed-form inequality $ \|\pi(s;\Theta)-\pi(s;\widehat{\Theta})\|_2 \le C_k(s)\,\|\delta W_k\|_2, $ where the constant $C_k(s)$ depends only on unpruned spectral norms and biases, and can be evaluated in closed form from a single forward pass. The derived bounds specify, prior to field deployment, the maximal admissible pruning magnitude compatible with a prescribed control-error threshold. By linking second-order network compression with closed-loop performance guarantees, our work narrows a crucial gap between modern deep-learning tooling and the robustness demands of safety-critical autonomous systems.
评论: 7页
主题: 机器人技术 (cs.RO) ; 系统与控制 (eess.SY); 数值分析 (math.NA); 优化与控制 (math.OC)
引用方式: arXiv:2507.02953 [cs.RO]
  (或者 arXiv:2507.02953v1 [cs.RO] 对于此版本)
  https://doi.org/10.48550/arXiv.2507.02953
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Maksym Shamrai [查看电子邮件]
[v1] 星期日, 2025 年 6 月 29 日 16:55:17 UTC (14 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
cs.RO
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-07
切换浏览方式为:
cs
cs.NA
cs.SY
eess
eess.SY
math
math.NA
math.OC

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号