Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2505.13192

帮助 | 高级搜索

计算机科学 > 机器学习

arXiv:2505.13192 (cs)
[提交于 2025年5月19日 ]

标题: 真正的零样本推理在保局长期统计的动力系统中的应用

标题: True Zero-Shot Inference of Dynamical Systems Preserving Long-Term Statistics

Authors:Christoph Jürgen Hemmer, Daniel Durstewitz
摘要: 复杂且随时间演化的现象,从气候到大脑活动,都由动力系统(DS)所支配。 DS重构(DSR)旨在从观测数据中推断这些系统的生成代理模型,重现它们的长期行为。 现有的DSR方法需要针对任何新观察到的系统进行专门训练,缺乏像大型语言模型(LLMs)那样的零样本和上下文推理能力。 在这里我们介绍了DynaMix,这是一种新颖的多变量基于ALRNN的专家混合架构,预先训练用于DSR,这是首个能够零样本泛化到非领域内DS的DSR模型。 仅从提供的上下文信号出发,无需任何再训练,DynaMix就能忠实地预测新型DS的长期演化,而现有的时间序列(TS)基础模型,比如Chronos,在这方面会失败——而且DynaMix的参数量仅为前者的几分之一,推理速度则快几个数量级。 DynaMix在长时统计方面优于TS基础模型,并且通常在短期预测上也表现更好,即使是在用于训练和评估TS模型的真实世界时间序列,如交通或天气数据上也是如此,但这些数据完全不在DynaMix的训练语料库中。 我们展示了TS模型在DSR问题上的某些失效模式,并得出结论认为基于DS原理构建的模型也可能在推进TS预测领域方面具有巨大潜力。
摘要: Complex, temporally evolving phenomena, from climate to brain activity, are governed by dynamical systems (DS). DS reconstruction (DSR) seeks to infer generative surrogate models of these from observed data, reproducing their long-term behavior. Existing DSR approaches require purpose-training for any new system observed, lacking the zero-shot and in-context inference capabilities known from LLMs. Here we introduce DynaMix, a novel multivariate ALRNN-based mixture-of-experts architecture pre-trained for DSR, the first DSR model able to generalize zero-shot to out-of-domain DS. Just from a provided context signal, without any re-training, DynaMix faithfully forecasts the long-term evolution of novel DS where existing time series (TS) foundation models, like Chronos, fail -- at a fraction of the number of parameters and orders of magnitude faster inference times. DynaMix outperforms TS foundation models in terms of long-term statistics, and often also short-term forecasts, even on real-world time series, like traffic or weather data, typically used for training and evaluating TS models, but not at all part of DynaMix' training corpus. We illustrate some of the failure modes of TS models for DSR problems, and conclude that models built on DS principles may bear a huge potential also for advancing the TS prediction field.
主题: 机器学习 (cs.LG) ; 人工智能 (cs.AI); 动力系统 (math.DS); 混沌动力学 (nlin.CD)
引用方式: arXiv:2505.13192 [cs.LG]
  (或者 arXiv:2505.13192v1 [cs.LG] 对于此版本)
  https://doi.org/10.48550/arXiv.2505.13192
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Christoph Jürgen Hemmer [查看电子邮件]
[v1] 星期一, 2025 年 5 月 19 日 14:49:10 UTC (8,798 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
nlin
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-05
切换浏览方式为:
cs
cs.AI
cs.LG
math
math.DS
nlin.CD

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号