Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > stat > arXiv:2504.02511

帮助 | 高级搜索

统计学 > 机器学习

arXiv:2504.02511 (stat)
[提交于 2025年4月3日 ]

标题: 具有机器学习的流形分析发现

标题: Analytical Discovery of Manifold with Machine Learning

Authors:Yafei Shen, Huan-Fei Ma, Ling Yang
摘要: 理解高维数据中的低维结构对于复杂数据集的可视化、解释和去噪至关重要。尽管流形学习技术取得了进展,但一些关键挑战——如全局洞察力有限和缺乏可解释的分析描述——仍未得到解决。 在这项工作中,我们引入了一个新的框架,即使用自编码的全局解析流形学习(GAMLA)。GAMLA 在自编码框架内采用两轮训练过程,以推导出底层流形的特征表示和互补表示。通过特征表示,流形由一个参数化函数表示,该函数展开流形以提供全局坐标。而通过互补表示,则开发了近似的显式流形描述,为高维数据集下的平滑流形提供了全局和解析的表示。这使得可以解析推导出曲率和法向量等几何属性。此外,我们发现这两种表示一起分解了整个潜在空间,并且因此能够表征围绕流形的局部空间结构,在异常检测和分类中表现出特别的有效性。通过在基准数据集和现实应用上的大量实验,GAMLA 展现了其在实现计算效率和可解释性的同时提供精确几何和结构洞见的能力。这一框架弥合了数据驱动的流形学习与解析几何之间的差距,为探索复杂数据集的内在特性提供了一种多功能工具。
摘要: Understanding low-dimensional structures within high-dimensional data is crucial for visualization, interpretation, and denoising in complex datasets. Despite the advancements in manifold learning techniques, key challenges-such as limited global insight and the lack of interpretable analytical descriptions-remain unresolved. In this work, we introduce a novel framework, GAMLA (Global Analytical Manifold Learning using Auto-encoding). GAMLA employs a two-round training process within an auto-encoding framework to derive both character and complementary representations for the underlying manifold. With the character representation, the manifold is represented by a parametric function which unfold the manifold to provide a global coordinate. While with the complementary representation, an approximate explicit manifold description is developed, offering a global and analytical representation of smooth manifolds underlying high-dimensional datasets. This enables the analytical derivation of geometric properties such as curvature and normal vectors. Moreover, we find the two representations together decompose the whole latent space and can thus characterize the local spatial structure surrounding the manifold, proving particularly effective in anomaly detection and categorization. Through extensive experiments on benchmark datasets and real-world applications, GAMLA demonstrates its ability to achieve computational efficiency and interpretability while providing precise geometric and structural insights. This framework bridges the gap between data-driven manifold learning and analytical geometry, presenting a versatile tool for exploring the intrinsic properties of complex data sets.
主题: 机器学习 (stat.ML) ; 机器学习 (cs.LG)
引用方式: arXiv:2504.02511 [stat.ML]
  (或者 arXiv:2504.02511v1 [stat.ML] 对于此版本)
  https://doi.org/10.48550/arXiv.2504.02511
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Yafei Shen [查看电子邮件]
[v1] 星期四, 2025 年 4 月 3 日 11:53:00 UTC (3,246 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
cs
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-04
切换浏览方式为:
cs.LG
stat
stat.ML

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号