Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2504.15779

帮助 | 高级搜索

计算机科学 > 信息论

arXiv:2504.15779 (cs)
[提交于 2025年4月22日 ]

标题: 香农不变量:一种可扩展的信息分解方法

标题: Shannon invariants: A scalable approach to information decomposition

Authors:Aaron J. Gutknecht, Fernando E. Rosas, David A. Ehrlich, Abdullah Makkeh, Pedro A. M. Mediano, Michael Wibral
摘要: 分布式系统,例如生物神经网络和人工神经网络,通过多个子系统之间的复杂交互来处理信息,从而在不同尺度上产生具有独特属性的高阶模式。 由于难以定义适当的多变量度量并确保其可扩展性到大规模系统,研究这些系统如何处理信息仍然具有挑战性。 为了解决这些挑战,我们引入了一种基于所谓的“香农不变量”的新框架——这些量以仅依赖于熵的定义方式捕捉高阶信息处理的基本属性,并且可以高效地计算大规模系统中的值。 我们的理论结果展示了如何利用香农不变量解决关于广泛使用的多变量信息论测度解释方面的长期模糊性。 此外,我们的实证结果揭示了不同深度学习架构在各层中的独特信息处理特征,这为我们提供了有关这些系统如何处理信息以及这一过程在训练过程中如何演变的新见解。 总体而言,我们的框架解决了分析高阶现象的根本局限性,并为理论发展和经验分析提供了广泛的机会。
摘要: Distributed systems, such as biological and artificial neural networks, process information via complex interactions engaging multiple subsystems, resulting in high-order patterns with distinct properties across scales. Investigating how these systems process information remains challenging due to difficulties in defining appropriate multivariate metrics and ensuring their scalability to large systems. To address these challenges, we introduce a novel framework based on what we call "Shannon invariants" -- quantities that capture essential properties of high-order information processing in a way that depends only on the definition of entropy and can be efficiently calculated for large systems. Our theoretical results demonstrate how Shannon invariants can be used to resolve long-standing ambiguities regarding the interpretation of widely used multivariate information-theoretic measures. Moreover, our practical results reveal distinctive information-processing signatures of various deep learning architectures across layers, which lead to new insights into how these systems process information and how this evolves during training. Overall, our framework resolves fundamental limitations in analyzing high-order phenomena and offers broad opportunities for theoretical developments and empirical analyses.
评论: 16页,4幅图
主题: 信息论 (cs.IT) ; 人工智能 (cs.AI); 机器学习 (cs.LG); 适应性与自组织系统 (nlin.AO); 数据分析、统计与概率 (physics.data-an)
引用方式: arXiv:2504.15779 [cs.IT]
  (或者 arXiv:2504.15779v1 [cs.IT] 对于此版本)
  https://doi.org/10.48550/arXiv.2504.15779
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Aaron Julian Gutknecht [查看电子邮件]
[v1] 星期二, 2025 年 4 月 22 日 10:41:38 UTC (532 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
cs.IT
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-04
切换浏览方式为:
cs
cs.AI
cs.LG
math
math.IT
nlin
nlin.AO
physics
physics.data-an

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号