计算机科学 > 信息论
[提交于 2025年5月30日
]
标题: 广义信息散度测度的超额最小风险界
标题: Bounds on the Excess Minimum Risk via Generalized Information Divergence Measures
摘要: 已知有限维随机向量$Y$、$X$和$Z$按顺序构成马尔可夫链(即$Y \to X \to Z$),我们利用广义信息散度测度推导出超额最小风险的上界。 这里, $Y$是目标向量,需从观测特征向量$X$或其随机退化版本$Z$中进行估计。 超额最小风险被定义为从$X$和$Z$估计$Y$时的最小期望损失之间的差值。 我们提出了一组广义的界,这些界推广了 Györfi 等人 (2023) 基于互信息的界,使用了 Rényi 和$\alpha$-Jensen-Shannon 散度,以及 Sibson 的互信息。 我们的界与 Modak 等人 (2021) 和 Aminian 等人 (2024) 为学习算法的泛化误差开发的界类似。 然而,与这些工作不同的是,我们的界不需要子高斯参数为常数,因此适用于$Y$、$X$和$Z$上更广泛的联合分布类。 我们还在常数和非常数子高斯假设下提供了数值例子,说明了对于参数$\alpha$的某些取值范围,基于广义散度的界可以比基于互信息的界更紧。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.