Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > eess > arXiv:2510.03986

帮助 | 高级搜索

电气工程与系统科学 > 音频与语音处理

arXiv:2510.03986 (eess)
[提交于 2025年10月5日 ]

标题: 一种多语言框架用于构音障碍:检测、严重程度分类、语音到文本和清晰语音生成

标题: A Multilingual Framework for Dysarthria: Detection, Severity Classification, Speech-to-Text, and Clean Speech Generation

Authors:Ananya Raghu, Anisha Raghu, Nithika Vivek, Sofie Budman, Omar Mansour
摘要: 构音障碍是一种运动性言语障碍,导致言语缓慢且常常难以理解。 言语可理解性显著影响交流,导致社交互动中的障碍。 构音障碍通常是神经系统疾病的特征,包括帕金森病和ALS,但目前的工具在不同语言和严重程度之间缺乏通用性。 在本研究中,我们提出了一种统一的基于人工智能的多语言框架,解决了六个关键组件:(1) 二元构音障碍检测,(2) 严重程度分类,(3) 清晰言语生成,(4) 言语到文本转换,(5) 情绪检测,和(6) 语音克隆。 我们分析了英语、俄语和德语的数据集,使用基于频谱图的可视化和声学特征提取来指导模型训练。 我们的二元检测模型在所有三种语言中达到了97%的准确率,证明了在不同语言之间的强大泛化能力。 严重程度分类模型也达到了97%的测试准确率,可解释的结果显示模型注意力集中在低谐波上。 我们的翻译管道,在配对的俄语构音障碍和清晰语音上进行训练,以低训练(0.03)和测试(0.06)L1损失重建了可理解的输出。 鉴于英语构音障碍-清晰语音对的可用性有限,我们在英语数据上微调了俄语模型,并实现了改进的损失值0.02(训练)和0.03(测试),突显了跨语言迁移学习在低资源环境中的潜力。 我们的言语到文本管道在三个周期后实现了0.1367的词错误率,表明对构音障碍言语的准确转录,并从转录的言语中实现了下游情绪识别和语音克隆。 总体而言,本研究的结果和产品可用于诊断构音障碍,并改善不同语言患者的交流和理解。
摘要: Dysarthria is a motor speech disorder that results in slow and often incomprehensible speech. Speech intelligibility significantly impacts communication, leading to barriers in social interactions. Dysarthria is often a characteristic of neurological diseases including Parkinson's and ALS, yet current tools lack generalizability across languages and levels of severity. In this study, we present a unified AI-based multilingual framework that addresses six key components: (1) binary dysarthria detection, (2) severity classification, (3) clean speech generation, (4) speech-to-text conversion, (5) emotion detection, and (6) voice cloning. We analyze datasets in English, Russian, and German, using spectrogram-based visualizations and acoustic feature extraction to inform model training. Our binary detection model achieved 97% accuracy across all three languages, demonstrating strong generalization across languages. The severity classification model also reached 97% test accuracy, with interpretable results showing model attention focused on lower harmonics. Our translation pipeline, trained on paired Russian dysarthric and clean speech, reconstructed intelligible outputs with low training (0.03) and test (0.06) L1 losses. Given the limited availability of English dysarthric-clean pairs, we fine-tuned the Russian model on English data and achieved improved losses of 0.02 (train) and 0.03 (test), highlighting the promise of cross-lingual transfer learning for low-resource settings. Our speech-to-text pipeline achieved a Word Error Rate of 0.1367 after three epochs, indicating accurate transcription on dysarthric speech and enabling downstream emotion recognition and voice cloning from transcribed speech. Overall, the results and products of this study can be used to diagnose dysarthria and improve communication and understanding for patients across different languages.
主题: 音频与语音处理 (eess.AS) ; 声音 (cs.SD)
引用方式: arXiv:2510.03986 [eess.AS]
  (或者 arXiv:2510.03986v1 [eess.AS] 对于此版本)
  https://doi.org/10.48550/arXiv.2510.03986
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Omar Mansour [查看电子邮件]
[v1] 星期日, 2025 年 10 月 5 日 00:52:04 UTC (1,310 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
查看许可
当前浏览上下文:
eess.AS
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-10
切换浏览方式为:
cs
cs.SD
eess

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号