Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > math > arXiv:2001.00046v1

帮助 | 高级搜索

数学 > 数值分析

arXiv:2001.00046v1 (math)
[提交于 2019年12月31日 ]

标题: 张量-张量乘积用于最优表示和压缩

标题: Tensor-Tensor Products for Optimal Representation and Compression

Authors:Misha Kilmer, Lior Horesh, Haim Avron, Elizabeth Newman
摘要: 在大数据、数据分析和机器学习的时代,必须找到压缩大型数据集的方法,以确保后续分析所需的基本特征不会丢失。传统上用于数据降维和特征提取的是矩阵奇异值分解(SVD),它假定数据已经以矩阵格式排列。本研究的主要目标是证明,当高维数据集被当作张量(即多维数组)处理,并通过张量-奇异值分解(SVD)在张量-张量乘积结构下进行压缩时,这些数据集更具可压缩性。(Kilmer和Martin,2011;Kernfeld等,2015)。我们首先在两种不同的截断策略下证明了张量-SVD族的Eckart-Young最优性结果。由于这种最优性性质可以在基于矩阵和张量的代数中得到证明,一个基本问题浮现:在表示效率方面,张量结构是否涵盖了矩阵结构?答案是肯定的,当我们证明相同维度的张量-张量表示可以优于其矩阵对应项时,这一点得到了证明。然后,我们研究了截断张量-SVD提供的压缩表示在理论上和压缩性能上与最近的基于张量的类似方法——截断高阶奇异值分解(HOSVD)(De Lathauwer等,2000;De Lathauwer和Vandewalle,2004)之间的关系,从而展示了我们基于张量的算法的潜在优势。最后,我们提出了新的截断张量SVD变体,即多路张量SVD,提供了进一步的近似表示效率,并讨论了它们在何种条件下被认为是最佳的。最后,我们通过一个数值研究展示了该理论的实用性。
摘要: In this era of big data, data analytics and machine learning, it is imperative to find ways to compress large data sets such that intrinsic features necessary for subsequent analysis are not lost. The traditional workhorse for data dimensionality reduction and feature extraction has been the matrix SVD, which presupposes that the data has been arranged in matrix format. Our main goal in this study is to show that high-dimensional data sets are more compressible when treated as tensors (aka multiway arrays) and compressed via tensor-SVDs under the tensor-tensor product structures in (Kilmer and Martin, 2011; Kernfeld et al., 2015). We begin by proving Eckart Young optimality results for families of tensor-SVDs under two different truncation strategies. As such optimality properties can be proven in both matrix and tensor-based algebras, a fundamental question arises: does the tensor construct subsume the matrix construct in terms of representation efficiency? The answer is yes, as shown when we prove that a tensor-tensor representation of an equal dimensional spanning space can be superior to its matrix counterpart. We then investigate how the compressed representation provided by the truncated tensor-SVD is related both theoretically and in compression performance to its closest tensor-based analogue, truncated HOSVD (De Lathauwer et al., 2000; De Lathauwer and Vandewalle, 2004), thereby showing the potential advantages of our tensor-based algorithms. Finally, we propose new tensor truncated SVD variants, namely multi-way tensor SVDs, provide further approximated representation efficiency and discuss under which conditions they are considered optimal. We conclude with a numerical study demonstrating the utility of the theory.
评论: 27页,8图,3表
主题: 数值分析 (math.NA)
MSC 类: 15A69, 65F99, 94A08
引用方式: arXiv:2001.00046 [math.NA]
  (或者 arXiv:2001.00046v1 [math.NA] 对于此版本)
  https://doi.org/10.48550/arXiv.2001.00046
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Elizabeth Newman [查看电子邮件]
[v1] 星期二, 2019 年 12 月 31 日 19:35:02 UTC (824 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
math.NA
< 上一篇   |   下一篇 >
新的 | 最近的 | 2020-01
切换浏览方式为:
cs
cs.NA
math

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号