计算机科学 > 机器学习
[提交于 2019年10月17日
]
标题: 概率确定性有限自动机和递归网络,重访
标题: Probabilistic Deterministic Finite Automata and Recurrent Networks, Revisited
摘要: reservoir 计算机 (RCs) 和递归神经网络 (RNNs) 在理论上可以模仿任何有限状态自动机,一些研究人员证明了这一点在实践中同样成立。 我们测试了广义线性模型、RCs 和长短期记忆 (LSTM) RNN 架构预测由大量概率确定性有限状态自动机 (PDFAs) 生成的随机过程的能力。 PDFAs 提供了一个极好的性能基准,因为它们可以系统地枚举,所生成过程的随机性和相关结构是完全已知的,并且其最优的记忆限制预测器很容易计算。 不出所料,LSTMs 的表现优于 RCs,RCs 又优于广义线性模型。 令人惊讶的是,每种方法在训练后可能最多有 50% 的预测准确性低于最大值,在优化时则通常会低于最大预测准确性的 5%,尽管之前可用的方法使用数量级更少的数据就能达到最大预测准确性。 因此,尽管 RCs 和 RNNs 具有表示的普适性,但在处理简单刺激时,使用它们可能会导致令人惊讶的预测差距。 由此得出结论,推断“因果状态”或“预测状态表示”的方法有着重要且未被充分重视的作用。
当前浏览上下文:
cs.LG
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.