计算机科学 > 计算与语言
[提交于 2025年1月3日
]
标题: 基于预训练语言模型的自适应小样本提示方法在机器翻译中的应用
标题: Adaptive Few-shot Prompting for Machine Translation with Pre-trained Language Models
摘要: 最近,具有上下文学习能力的大语言模型(LLMs)在处理神经机器翻译方面表现出显著的潜力。 然而,现有证据表明,LLMs对提示敏感,将固定提示应用于任何输入以进行下游机器翻译任务是次优的。 为了解决这个问题,我们提出了一种自适应少量示例提示(AFSP)框架,以自动选择适合各种源输入句子的翻译示例,从而进一步激发LLM的翻译能力,以实现更好的机器翻译。 首先,我们基于LLM的嵌入构建一个翻译示例检索模块,从对齐的平行翻译语料库中检索出前k个语义相似的翻译示例。 而不是使用其他嵌入模型进行语义示例检索,我们基于部署的LLM的嵌入层构建了一个混合示例检索模块,以构建更好的输入表示,从而检索出更多语义相关的翻译示例。 然后,为了确保源输入和目标输出之间的更好语义一致性,我们借助翻译示例让部署的LLM本身生成多个目标语言的输出候选,并对这些候选进行重新排序。 此外,为了更好地评估我们的AFSP框架在最新语言上的有效性并扩展神经机器翻译的研究边界,我们构建了一个高质量的外交中英平行数据集,该数据集包含5,528个中英平行句子。 最后,在提出的外交中英平行数据集和联合国平行语料库(中英部分)上的大量实验展示了我们提出的AFSP的有效性和优越性。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.