统计学 > 计算
[提交于 2008年3月17日
]
标题: 隐马尔可夫模型的调整式维特比训练
标题: The adjusted Viterbi training for hidden Markov models
摘要: EM算法是隐马尔可夫模型参数估计的主要工具。然而,在应用中,人们通常用Viterbi提取(或训练)代替EM算法,即VT。VT的计算复杂度较低,更稳定,并且更具直观吸引力,但VT估计是有偏的,且不能满足以下固定点性质:假设存在一个无穷大的样本量,并初始化为真实参数,VT通常会偏离初始值。我们提出了调整后的Viterbi训练(VA),这是一种新方法,旨在恢复固定点性质,从而减轻VT估计器的整体不精确性,同时保留基线VT算法的计算优势。在其他模拟研究中已经表明,VA显著提高了混合模型和更一般的HMMs中估计的精度。然而,由于完全是解析的方法,VA校正依赖于无限长的Viterbi对齐和相关的极限概率分布。虽然在混合模型的情况下是显而易见的,但对于更一般的HMMs,这些极限测度的存在并不明显。本文证明了在某些温和条件下,一般HMMs所需的极限分布确实存在。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.