Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2510.14523

帮助 | 高级搜索

计算机科学 > 机器学习

arXiv:2510.14523 (cs)
[提交于 2025年10月16日 ]

标题: 通过先验预测匹配的张量秩可识别性

标题: On the Identifiability of Tensor Ranks via Prior Predictive Matching

Authors:Eliezer da Silva, Arto Klami, Diego Mesquita, Iñigo Urteaga
摘要: 在张量分解中选择潜在维度(秩)是一个核心挑战,通常依赖于启发式方法。 本文介绍了一种严格的方法,用于确定概率张量模型中的秩可识别性,该方法基于先验预测矩匹配。 我们将一组矩匹配条件转换为关于边缘矩、先验超参数和秩的对数线性方程组;建立了秩可识别性与该系统可解性之间的等价关系。 我们将这一框架应用于四个基础张量模型,证明PARAFAC/CP模型的线性结构、Tensor Train模型的链式结构以及Tensor Ring模型的闭环结构会产生可解系统,使其秩具有可识别性。 相反,我们证明Tucker模型的对称拓扑会导致欠定系统,使得通过此方法无法识别其秩。 对于可识别模型,我们仅基于观测数据的矩推导出显式的闭合形式秩估计器。 我们对这些估计器进行了经验验证,并评估了该方法的鲁棒性。
摘要: Selecting the latent dimensions (ranks) in tensor factorization is a central challenge that often relies on heuristic methods. This paper introduces a rigorous approach to determine rank identifiability in probabilistic tensor models, based on prior predictive moment matching. We transform a set of moment matching conditions into a log-linear system of equations in terms of marginal moments, prior hyperparameters, and ranks; establishing an equivalence between rank identifiability and the solvability of such system. We apply this framework to four foundational tensor-models, demonstrating that the linear structure of the PARAFAC/CP model, the chain structure of the Tensor Train model, and the closed-loop structure of the Tensor Ring model yield solvable systems, making their ranks identifiable. In contrast, we prove that the symmetric topology of the Tucker model leads to an underdetermined system, rendering the ranks unidentifiable by this method. For the identifiable models, we derive explicit closed-form rank estimators based on the moments of observed data only. We empirically validate these estimators and evaluate the robustness of the proposal.
主题: 机器学习 (cs.LG) ; 统计理论 (math.ST); 机器学习 (stat.ML)
MSC 类: 62A09, 62F15
ACM 类: G.3
引用方式: arXiv:2510.14523 [cs.LG]
  (或者 arXiv:2510.14523v1 [cs.LG] 对于此版本)
  https://doi.org/10.48550/arXiv.2510.14523
通过 DataCite 发表的 arXiv DOI(待注册)

提交历史

来自: Eliezer De Souza Da Silva [查看电子邮件]
[v1] 星期四, 2025 年 10 月 16 日 10:13:45 UTC (130 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
许可图标 查看许可
当前浏览上下文:
cs.LG
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-10
切换浏览方式为:
cs
math
math.ST
stat
stat.ML
stat.TH

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号