Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > stat > arXiv:2507.19650

帮助 | 高级搜索

统计学 > 方法论

arXiv:2507.19650 (stat)
[提交于 2025年7月25日 ]

标题: 树引导的高维回归特征聚合的直接方法

标题: A direct approach to tree-guided feature aggregation for high-dimensional regression

Authors:Jinwen Fu, Aaron J. Molstad, Hui Zou
摘要: 在高维线性模型中,通常利用稀疏性来减少变异性并实现简约性。等稀疏性,即假设预测变量可以聚合成具有相同效应的组,是一种替代的简约结构,在某些应用中可能更为合适。先前的研究已经明确展示了在存在“罕见特征”时利用等稀疏性的优势(Yan和Bien 2021)。在本工作中,我们提出了一种新的树引导正则化方案,用于同时估计和特征聚合。与现有方法不同,我们的估计器避免了合成过参数化及其有害影响。尽管我们的惩罚应用于层次重叠的组,但我们证明其近端算子可以通过一次传递、非迭代算法求解。我们开发了新技术,在最小二乘和二项偏差损失下研究了这种半范数诱导正则化器的有限样本误差界。理论上,与现有方法相比,所提出的方法根据真实的等稀疏结构提供更快或相等的速率。广泛的模拟研究验证了这些发现。最后,我们通过一个微生物组数据集的应用说明了所提方法的有用性,在该应用中我们对聚合特征的影响进行了选择后推断。
摘要: In high-dimensional linear models, sparsity is often exploited to reduce variability and achieve parsimony. Equi-sparsity, where one assumes that predictors can be aggregated into groups sharing the same effects, is an alternative parsimonious structure that can be more suitable in certain applications. Previous work has clearly demonstrated the benefits of exploiting equi-sparsity in the presence of ``rare features'' (Yan and Bien 2021). In this work, we propose a new tree-guided regularization scheme for simultaneous estimation and feature aggregation. Unlike existing methods, our estimator avoids synthetic overparameterization and its detrimental effects. Even though our penalty is applied to hierarchically overlapped groups, we show that its proximal operator can be solved with a one-pass, non-iterative algorithm. Novel techniques are developed to study the finite-sample error bound of this seminorm-induced regularizer under least squares and binomial deviance losses. Theoretically, compared to existing methods, the proposed method offers a faster or equivalent rate depending on the true equi-sparisty structure. Extensive simulation studies verify these findings. Finally, we illustrate the usefulness of the proposed method with an application to a microbiome dataset, where we conduct post-selection inference on the aggregated features' effects.
主题: 方法论 (stat.ME)
引用方式: arXiv:2507.19650 [stat.ME]
  (或者 arXiv:2507.19650v1 [stat.ME] 对于此版本)
  https://doi.org/10.48550/arXiv.2507.19650
通过 DataCite 发表的 arXiv DOI(待注册)

提交历史

来自: Jinwen Fu [查看电子邮件]
[v1] 星期五, 2025 年 7 月 25 日 19:54:22 UTC (245 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
stat.ME
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-07
切换浏览方式为:
stat

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号