Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2506.03784

帮助 | 高级搜索

计算机科学 > 机器学习

arXiv:2506.03784 (cs)
[提交于 2025年6月4日 ]

标题: 何时分布的接近性意味着表征相似性? 从可识别性视角出发

标题: When Does Closeness in Distribution Imply Representational Similarity? An Identifiability Perspective

Authors:Beatrix M. G. Nielsen, Emanuele Marconato, Andrea Dittadi, Luigi Gresele
摘要: 当不同深度神经网络学到的表示何时以及为何相似,是一个活跃的研究课题。 我们选择从可辨识性理论的角度来解答这些问题,该理论表明,表征相似性的度量应该对使模型分布保持不变的变换具有不变性。 聚焦于一个包含几种流行预训练方法的模型族,例如自回归语言模型,我们探讨了生成分布接近的模型何时会有相似的表示。 我们证明了模型分布之间的小的 Kullback-Leibler 散度并不能保证相应的表示是相似的。 这有一个重要的推论,即任意接近最大化似然的模型仍可能学习到不相似的表示,这一现象在我们在 CIFAR-10 数据集上训练的模型的经验观察中得到了反映。 然后我们定义了一种分布距离,其中接近意味着表征相似,并在合成实验中发现更宽的网络学习到的距离更近且表示更相似的分布。 我们的结果建立了分布接近与表征相似性之间的联系。
摘要: When and why representations learned by different deep neural networks are similar is an active research topic. We choose to address these questions from the perspective of identifiability theory, which suggests that a measure of representational similarity should be invariant to transformations that leave the model distribution unchanged. Focusing on a model family which includes several popular pre-training approaches, e.g., autoregressive language models, we explore when models which generate distributions that are close have similar representations. We prove that a small Kullback-Leibler divergence between the model distributions does not guarantee that the corresponding representations are similar. This has the important corollary that models arbitrarily close to maximizing the likelihood can still learn dissimilar representations, a phenomenon mirrored in our empirical observations on models trained on CIFAR-10. We then define a distributional distance for which closeness implies representational similarity, and in synthetic experiments, we find that wider networks learn distributions which are closer with respect to our distance and have more similar representations. Our results establish a link between closeness in distribution and representational similarity.
主题: 机器学习 (cs.LG) ; 人工智能 (cs.AI); 机器学习 (stat.ML)
引用方式: arXiv:2506.03784 [cs.LG]
  (或者 arXiv:2506.03784v1 [cs.LG] 对于此版本)
  https://doi.org/10.48550/arXiv.2506.03784
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Emanuele Marconato [查看电子邮件]
[v1] 星期三, 2025 年 6 月 4 日 09:44:22 UTC (5,170 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
stat.ML
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-06
切换浏览方式为:
cs
cs.AI
cs.LG
stat

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号