计算机科学 > 机器学习
[提交于 2025年7月15日
]
标题: 基于梯度正则化的神经格兰杰因果关系
标题: Gradient Regularization-based Neural Granger Causality
摘要: 随着深度学习技术的进步,各种基于神经网络的格兰杰因果关系模型已被提出。 尽管这些模型已表现出显著的改进,但仍存在一些局限性。 大多数现有方法采用逐个组件的架构,需要为每个时间序列构建一个单独的模型,这导致了巨大的计算成本。 此外,对神经网络第一层权重施加稀疏性诱导惩罚以提取因果关系,会削弱模型捕捉复杂交互的能力。 为了解决这些限制,我们提出了基于梯度正则化的神经格兰杰因果关系(GRNGC),它只需要一个时间序列预测模型,并对模型输入和输出之间的梯度应用$L_{1}$正则化以推断格兰杰因果关系。 此外,GRNGC不依赖于特定的时间序列预测模型,可以使用KAN、MLP和LSTM等多样化架构实现,提供了更高的灵活性。 在DREAM、Lorenz-96、fMRI BOLD和CausalTime上的数值模拟表明,GRNGC优于现有基线方法,并显著降低了计算开销。 同时,在真实世界的DNA、酵母、HeLa和膀胱尿路上皮癌数据集上的实验进一步验证了该模型在重构基因调控网络中的有效性。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.