数学 > 概率
[提交于 2025年7月13日
]
标题: 神经期望算子
标题: Neural Expectation Operators
摘要: 本文介绍了\textbf{度学习},一种通过非线性期望建模模糊性的范式。 我们将神经期望算子定义为后向随机微分方程(BSDEs)的解,其驱动项由神经网络参数化。 主要数学贡献是针对满足状态变量$y$局部利普希茨条件和其鞅分量$z$二次增长的 BSDEs 的严格适定性定理。 该结果避免了经典的全局利普希茨假设,适用于常见的神经网络架构(例如,具有 ReLU 激活函数的架构),并且适用于指数可积的终端数据,这是此设置下的精确条件。 我们的主要创新在于在二次 BSDEs 的深度理论的抽象且通常限制性强的假设与机器学习世界之间建立一个建设性的桥梁,证明这些条件可以通过具体且可验证的神经网络设计来满足。 我们提供了通过架构设计强制执行关键公理性质(如凸性)的建设性方法。 该理论扩展到完全耦合的前向-后向 SDE 系统的分析以及大规模相互作用粒子系统的渐近分析,在此我们建立了大数定律(混沌传播)和中心极限定理。 这项工作为在模糊性下的数据驱动建模提供了基础数学框架。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.