计算机科学 > 计算与语言
[提交于 2025年1月4日
(v1)
,最后修订 2025年2月7日 (此版本, v3)]
标题: 语音到文本的前缀或交叉注意力? 经验比较
标题: Prepending or Cross-Attention for Speech-to-Text? An Empirical Comparison
摘要: 在大型语言模型(LLMs)在自然语言处理(NLP)任务中取得显著成功之后,人们越来越有兴趣将它们的能力扩展到语音——这种最常用的交流形式。将语音集成到LLMs中最普遍的方法是密集特征前置(DFP),它将投影后的语音表示前置到文本表示之前,使得可以使用语音编码器进行端到端训练。这引发了关于DFP是否需要复杂的语音编码器以及其性能与标准编码器-解码器(即交叉注意力)架构相比如何的问题。我们在各种配置下比较了DFP和交叉注意力,例如CTC压缩、序列级知识蒸馏,在单语、双语和多语模型上进行测试。为了进行受控的架构比较,我们从头开始训练所有模型,而不是使用大型预训练模型,并使用可比的数据和参数设置,在MuST-C v1.0和CoVoST2数据集上测试语音到文本识别(ASR)和翻译(ST)。尽管DFP被广泛采用,但我们的结果并未表明DFP在交叉注意力上有明显优势。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.