数学 > 数值分析
[提交于 2019年12月31日
]
标题: 张量-张量乘积用于最优表示和压缩
标题: Tensor-Tensor Products for Optimal Representation and Compression
摘要: 在大数据、数据分析和机器学习的时代,必须找到压缩大型数据集的方法,以确保后续分析所需的基本特征不会丢失。传统上用于数据降维和特征提取的是矩阵奇异值分解(SVD),它假定数据已经以矩阵格式排列。本研究的主要目标是证明,当高维数据集被当作张量(即多维数组)处理,并通过张量-奇异值分解(SVD)在张量-张量乘积结构下进行压缩时,这些数据集更具可压缩性。(Kilmer和Martin,2011;Kernfeld等,2015)。我们首先在两种不同的截断策略下证明了张量-SVD族的Eckart-Young最优性结果。由于这种最优性性质可以在基于矩阵和张量的代数中得到证明,一个基本问题浮现:在表示效率方面,张量结构是否涵盖了矩阵结构?答案是肯定的,当我们证明相同维度的张量-张量表示可以优于其矩阵对应项时,这一点得到了证明。然后,我们研究了截断张量-SVD提供的压缩表示在理论上和压缩性能上与最近的基于张量的类似方法——截断高阶奇异值分解(HOSVD)(De Lathauwer等,2000;De Lathauwer和Vandewalle,2004)之间的关系,从而展示了我们基于张量的算法的潜在优势。最后,我们提出了新的截断张量SVD变体,即多路张量SVD,提供了进一步的近似表示效率,并讨论了它们在何种条件下被认为是最佳的。最后,我们通过一个数值研究展示了该理论的实用性。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.