Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > math > arXiv:2503.02289

帮助 | 高级搜索

数学 > 统计理论

arXiv:2503.02289 (math)
[提交于 2025年3月4日 ]

标题: 通过变换的$L_1$正则化进行噪声低秩矩阵补全及其理论性质

标题: Noisy Low-Rank Matrix Completion via Transformed $L_1$ Regularization and its Theoretical Properties

Authors:Kun Zhao, Jiayi Wang, Yifei Lou
摘要: 本文专注于从其噪声部分条目中恢复底层矩阵,这一问题通常被称为矩阵补全。 我们深入研究了一种非凸正则化方法,称为变换的$L_1$(TL1),它通过一个超参数$a \in (0, \infty)$在矩阵的秩和核范数之间进行插值。 虽然一些文献采用了这种正则化方法进行矩阵补全,但主要针对的是缺失条目均匀的情况,并关注算法的进步。 为了填补当前文献中的空白,我们在一般抽样分布下对TL1正则化恢复模型的估计量进行了全面的统计分析。 特别是,我们证明当$a$足够大时,基于TL1的模型恢复的矩阵在Frobenius范数下具有收敛率,与基于核范数的模型相当,尽管TL1正则化存在非凸性的挑战。 当$a$足够小时,我们证明当真实矩阵是精确低秩时,估计矩阵的秩保持为常数阶。 通过选择不同的调参方式,建立了控制误差和秩之间的权衡。 通过涵盖各种抽样机制的模拟研究以及两个实际应用,展示了TL1正则化的出色实际性能。 此外,通过实验探索了超参数$a$对基于TL1的模型的影响,以在实际场景中提供指导。
摘要: This paper focuses on recovering an underlying matrix from its noisy partial entries, a problem commonly known as matrix completion. We delve into the investigation of a non-convex regularization, referred to as transformed $L_1$ (TL1), which interpolates between the rank and the nuclear norm of matrices through a hyper-parameter $a \in (0, \infty)$. While some literature adopts such regularization for matrix completion, it primarily addresses scenarios with uniformly missing entries and focuses on algorithmic advances. To fill in the gap in the current literature, we provide a comprehensive statistical analysis for the estimator from a TL1-regularized recovery model under general sampling distribution. In particular, we show that when $a$ is sufficiently large, the matrix recovered by the TL1-based model enjoys a convergence rate measured by the Frobenius norm, comparable to that of the model based on the nuclear norm, despite the challenges posed by the non-convexity of the TL1 regularization. When $a$ is small enough, we show that the rank of the estimated matrix remains a constant order when the true matrix is exactly low-rank. A trade-off between controlling the error and the rank is established through different choices of tuning parameters. The appealing practical performance of TL1 regularization is demonstrated through a simulation study that encompasses various sampling mechanisms, as well as two real-world applications. Additionally, the role of the hyper-parameter $a$ on the TL1-based model is explored via experiments to offer guidance in practical scenarios.
评论: 被AISTATS 2025接收
主题: 统计理论 (math.ST)
引用方式: arXiv:2503.02289 [math.ST]
  (或者 arXiv:2503.02289v1 [math.ST] 对于此版本)
  https://doi.org/10.48550/arXiv.2503.02289
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Kun Zhao [查看电子邮件]
[v1] 星期二, 2025 年 3 月 4 日 05:30:02 UTC (80 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
许可图标 查看许可
当前浏览上下文:
math.ST
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-03
切换浏览方式为:
math
stat
stat.TH

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号