数学 > 统计理论
[提交于 2025年2月18日
]
标题: 无监督最优深度迁移学习在一般条件转移下的分类
标题: Unsupervised optimal deep transfer learning for classification under general conditional shift
摘要: 仅在标记的源数据上训练的分类器在应用于来自不同分布的未标记目标数据时可能会产生误导性结果。 迁移学习可以通过将知识从源数据转移到目标数据来纠正这一点,但其效果通常依赖于严格的假设,例如标签偏移。 在本文中,我们引入了一个新颖的通用条件偏移(GCS)假设,其中包含标签偏移作为一个特殊场景。 在GCS下,我们证明了目标分布和偏移函数都是可识别的。 为了估计源数据的条件概率${\bm\eta}_P$,我们提出利用深度神经网络(DNN)。 在转移DNN估计器之后,我们利用伪最大似然方法估计目标标签分布${\bm\pi}_Q$。 最终,通过结合这些估计并避免估计偏移函数的需求,我们构建了我们提出的贝叶斯分类器。 我们在${\bm\eta}_P$的内在维度方面建立了对${\bm\eta}_P$和${\bm\pi}_Q$的估计量的浓度界限。 值得注意的是,我们的基于DNN的分类器达到了最优最小最大速率,最多相差一个对数因子。 我们方法的一个关键优势是当${\bm\eta}_P$展现出低维结构时,能够有效应对维度灾难。 数值模拟以及对阿尔茨海默病数据集的分析突显了其卓越的性能。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.