数学 > 统计理论
[提交于 2025年3月4日
]
标题: 通过变换的$L_1$正则化进行噪声低秩矩阵补全及其理论性质
标题: Noisy Low-Rank Matrix Completion via Transformed $L_1$ Regularization and its Theoretical Properties
摘要: 本文专注于从其噪声部分条目中恢复底层矩阵,这一问题通常被称为矩阵补全。 我们深入研究了一种非凸正则化方法,称为变换的$L_1$(TL1),它通过一个超参数$a \in (0, \infty)$在矩阵的秩和核范数之间进行插值。 虽然一些文献采用了这种正则化方法进行矩阵补全,但主要针对的是缺失条目均匀的情况,并关注算法的进步。 为了填补当前文献中的空白,我们在一般抽样分布下对TL1正则化恢复模型的估计量进行了全面的统计分析。 特别是,我们证明当$a$足够大时,基于TL1的模型恢复的矩阵在Frobenius范数下具有收敛率,与基于核范数的模型相当,尽管TL1正则化存在非凸性的挑战。 当$a$足够小时,我们证明当真实矩阵是精确低秩时,估计矩阵的秩保持为常数阶。 通过选择不同的调参方式,建立了控制误差和秩之间的权衡。 通过涵盖各种抽样机制的模拟研究以及两个实际应用,展示了TL1正则化的出色实际性能。 此外,通过实验探索了超参数$a$对基于TL1的模型的影响,以在实际场景中提供指导。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.