计算机科学 > 机器学习
[提交于 2025年3月27日
(v1)
,最后修订 2025年8月9日 (此版本, v3)]
标题: 前馈神经网络模型中的不确定性传播
标题: Uncertainty propagation in feed-forward neural network models
摘要: 我们为具有泄漏ReLU激活函数的前馈神经网络架构开发了新的不确定性传播方法,这些方法在输入向量受到随机扰动的情况下适用。 特别是,我们推导了神经网络输出的概率密度函数(PDF)及其统计矩的解析表达式,作为输入不确定性以及网络参数(即权重和偏置)的函数。 一个关键发现是,对泄漏ReLU激活函数进行适当的线性化即使在输入向量有较大扰动时也能得到准确的统计结果。 这可以归因于信息在网络中传播的方式。 我们还提出了新的解析可处理的高斯copula代理模型,以近似神经网络输出的完整联合PDF。 为了验证我们的理论结果,我们在一个表示两个多项式函数空间之间非线性积分微分算子的多层神经网络上进行了蒙特卡洛模拟和详细的误差分析。 我们的研究结果表明,理论预测与蒙特卡洛模拟之间有很好的一致性。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.