Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2510.21414

帮助 | 高级搜索

计算机科学 > 信息论

arXiv:2510.21414 (cs)
[提交于 2025年10月24日 ]

标题: 通用最大似然(列表)解码通过快速向量-矩阵乘法

标题: Universal Maximum Likelihood (List) Decoding via Fast Vector-Matrix Multiplication

Authors:Hoang Ly, Emina Soljanin
摘要: 最大似然(ML)解码对于任意分组码仍然是根本困难的,最坏情况下的时间复杂度(以总乘法次数衡量)不优于直接穷举搜索,后者对于一个$q^{k} n$码需要$[n,k]_q$次操作。 本文介绍了一种简单且与码无关的框架,将最坏情况下的复杂度降低了一个因子$n$,降至$q^{k}$次操作,这在实践中是一种非常理想的减少。 该结果适用于一般无记忆信道上的线性和非线性分组码,以及硬判决和软判决解码。 它自然扩展到符号间干扰(ISI)信道和ML列表解码,仅带来可忽略的复杂度增加。 我们的核心见解是,当接收器接收到每个序列时,该序列对于码本中每个码字的条件概率 (即\emph{似然性})可以表示为两个精心构造向量的内积——第一个依赖于接收到的序列,第二个依赖于该码字本身。 因此,评估码本中所有码字的可能性 reduces 到一次向量-矩阵乘法,ML解码(MLD)变成在结果向量中选择最大元素的简单任务。 唯一的非平凡成本在于向量-矩阵乘积。 然而,我们的矩阵构造允许使用 Mailman 算法来降低此成本。 这种时间减少是以高空间复杂度为代价的,需要$\mathcal{O}(q^{k+1} n)$的空间来存储预计算的码本矩阵。
摘要: Maximum-likelihood (ML) decoding for arbitrary block codes remains fundamentally hard, with worst-case time complexity-measured by the total number of multiplications-being no better than straightforward exhaustive search, which requires $q^{k} n$ operations for an $[n,k]_q$ code. This paper introduces a simple, code-agnostic framework that reduces the worst-case complexity by a factor of $n$, down to $q^{k}$ operations, a highly desirable reduction in practice. The result holds for both linear and nonlinear block codes over general memoryless channels and under both hard-decision and soft-decision decoding. It naturally extends to intersymbol-interference (ISI) channels and ML list decoding with only a negligible increase in complexity. Our core insight is that, upon receipt of each sequence at the receiver, the conditional probability of that sequence for each codeword in the codebook (i.e., the \emph{likelihood}) can be expressed as the inner product of two carefully constructed vectors -- the first depending on the received sequence, and the second on that codeword itself. As a result, evaluating the likelihoods for all codewords in the codebook reduces to a single vector-matrix multiplication, and ML decoding (MLD) becomes the simple task of picking the maximum entry in the resulting vector. The only non-trivial cost lies in the vector-matrix product. However, our matrix construction allows the use of the Mailman algorithm to reduce this cost. This time reduction is achieved at the cost of high space complexity, requiring $\mathcal{O}(q^{k+1} n)$ space to store the pre-computed codebook matrix.
主题: 信息论 (cs.IT) ; 数据结构与算法 (cs.DS)
引用方式: arXiv:2510.21414 [cs.IT]
  (或者 arXiv:2510.21414v1 [cs.IT] 对于此版本)
  https://doi.org/10.48550/arXiv.2510.21414
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Hoang Ly [查看电子邮件]
[v1] 星期五, 2025 年 10 月 24 日 12:55:50 UTC (40 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
许可图标 查看许可
当前浏览上下文:
cs.IT
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-10
切换浏览方式为:
cs
cs.DS
math
math.IT

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号