统计学 > 方法论
[提交于 2025年7月14日
]
标题: 基于交叉熵损失的条件分组分布鲁棒优化的统计推断
标题: Statistical Inference for Conditional Group Distributionally Robust Optimization with Cross-Entropy Loss
摘要: 在具有离散标签的多源学习中,领域间的分布异质性是开发能够可靠转移到未见过领域的预测模型的核心挑战。 我们研究多源无监督域适应,其中标记数据来自多个源领域,而目标领域仅包含未标记数据。 为应对潜在的分布变化,我们提出了一种新的条件组分布鲁棒优化(CG-DRO)框架,该框架通过最小化来自源领域的条件结果分布的凸组合中的最坏情况交叉熵损失来学习分类器。 为解决由此产生的极小极大问题,我们开发了一种高效的镜像近似算法,其中我们采用双重机器学习过程来估计风险函数。 这确保了对干扰模型的机器学习估计器的误差仅以更高阶率进入,从而在协变量变化下保持统计效率。 我们通过构建两个替代极小极大优化问题来建立估计量的快速统计收敛速率,这些问题作为理论桥梁。 CG-DRO的一个显著挑战是出现非标准渐近:由于边界效应和系统不稳定,经验估计量可能无法收敛到标准极限分布。 为解决此问题,我们引入了一种基于扰动的推断程序,该程序能够实现统一有效的推断,包括置信区间构建和假设检验。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.