Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2509.00503

帮助 | 高级搜索

计算机科学 > 计算与语言

arXiv:2509.00503 (cs)
[提交于 2025年8月30日 ]

标题: 基于熵的粗粒度和压缩语义语音表示学习

标题: Entropy-based Coarse and Compressed Semantic Speech Representation Learning

Authors:Jialong Zuo, Guangyan Zhang, Minghui Fang, Shengpeng Ji, Xiaoqi Jiao, Jingyu Li, Yiwen Guo, Zhou Zhao
摘要: 离散语音表示学习最近在声学和语义建模方面引起了越来越多的关注。 现有的方法通常将16 kHz的波形以每秒25或50个标记的速率编码为离散标记。 然而,考虑到语音通常每秒只传达2到5个词,这种细粒度的分词引入了冗余,并阻碍了下游训练和推理的效率。 此外,这种频率下的语义语音表示主要捕捉语音级别的信息,而语义理解可能不需要如此详细的标记级分辨率。 为了解决这些限制,我们提出了一种基于熵的动态聚合框架,用于学习压缩的语义语音表示。 首先,通过在大规模未标记数据上进行下一个标记预测来预训练一个语音语言模型,以捕捉常见的标记模式。 然后使用预测熵自适应地确定聚合边界,接着通过一个交叉注意力模块融合每个片段内的信息。 通过调整熵阈值,可以灵活控制表示的粒度和压缩比。 在自动语音识别、语音到文本翻译和语音转换任务上的实验表明,压缩表示的表现与密集标记序列相当或更好,证明了所提出方法的有效性。
摘要: Discrete speech representation learning has recently attracted increasing interest in both acoustic and semantic modeling. Existing approaches typically encode 16 kHz waveforms into discrete tokens at a rate of 25 or 50 tokens per second. However, given that speech generally conveys only 2 to 5 words per second, such fine-grained tokenization introduces redundancy and hinders efficiency in downstream training and inference. Moreover, semantic speech representations at this frequency primarily capture phonetic-level information, while semantic understanding may not require such detailed token-level resolution. To address these limitations, we propose an entropy-based dynamic aggregation framework for learning compressed semantic speech representations. A speech language model is first pre-trained via next-token prediction on large-scale unlabeled data to capture frequent token patterns. Predictive entropy is then used to adaptively determine aggregation boundaries, followed by a cross-attention module that fuses information within each segment. By adjusting the entropy threshold, the granularity and compression ratio of the representations can be flexibly controlled. Experiments on ASR, speech-to-text translation, and voice conversion tasks demonstrate that the compressed representations perform on par with or better than dense token sequences, demonstrating the effectiveness of the proposed approach.
主题: 计算与语言 (cs.CL) ; 音频与语音处理 (eess.AS)
引用方式: arXiv:2509.00503 [cs.CL]
  (或者 arXiv:2509.00503v1 [cs.CL] 对于此版本)
  https://doi.org/10.48550/arXiv.2509.00503
通过 DataCite 发表的 arXiv DOI(待注册)

提交历史

来自: Jialung Zuo [查看电子邮件]
[v1] 星期六, 2025 年 8 月 30 日 13:50:58 UTC (284 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
cs.CL
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-09
切换浏览方式为:
cs
eess
eess.AS

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号