电气工程与系统科学 > 音频与语音处理
[提交于 2025年8月31日
]
标题: MPO:基于语言模型的文本到语音的多维偏好优化
标题: MPO: Multidimensional Preference Optimization for Language Model-based Text-to-Speech
摘要: 近年来,通过大规模语言模型,文本到语音(TTS)取得了令人印象深刻的进展,实现了人类水平的语音质量。 整合人类反馈已被证明能有效提高这些系统的鲁棒性。 然而,当前方法在跨多个维度优化TTS时面临挑战,并且由于对奖励的过度自信,常常导致性能下降。 我们提出了多维偏好优化(MPO),以更好地使TTS系统与人类偏好对齐。 MPO引入了一个偏好集,简化了多维偏好优化的数据构建过程,实现了与多个维度的对齐。 此外,我们在训练过程中引入正则化,以解决基于DPO的方法中的典型退化问题。 我们的实验表明MPO的有效性,与基线系统相比,在可理解性、说话人相似性和韵律方面都有显著提升。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.