计算机科学 > 机器学习
标题: 理解Transformer在序列建模中的表达能力和机制
标题: Understanding the Expressive Power and Mechanisms of Transformer for Sequence Modeling
摘要: 我们对Transformer在长序列、稀疏和复杂记忆建模中的近似性质进行了系统研究。 我们研究了Transformer的不同组件,如点积自注意力、位置编码和前馈层,是如何影响其表达能力的,并通过建立明确的近似率来研究它们的综合影响。 我们的研究揭示了Transformer中关键参数的作用,如层数和注意力头的数量,这些见解也为替代架构提供了自然的建议。
提交历史
来自: Mingze Wang [查看电子邮件][v1] 星期四, 2024 年 2 月 1 日 11:43:13 UTC (95 KB)
[v2] 星期二, 2024 年 2 月 6 日 07:34:41 UTC (95 KB)
[v3] 星期三, 2024 年 2 月 14 日 05:17:31 UTC (96 KB)
[v4] 星期五, 2024 年 5 月 24 日 10:03:59 UTC (100 KB)
[v5] 星期三, 2024 年 7 月 3 日 03:23:24 UTC (100 KB)
[v6] 星期三, 2024 年 10 月 30 日 08:47:36 UTC (109 KB)
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.