定量生物学 > 神经与认知
[提交于 2025年7月26日
]
标题: 吸引和排斥的感知偏差在生成对抗推理中自然出现
标题: Attractive and Repulsive Perceptual Biases Naturally Emerge in Generative Adversarial Inference
摘要: 人类的感知估计在不确定性条件下表现出显著的偏差反转:在感觉不确定性较高时,它们会向先验期望靠拢,但当内部噪声占主导时,它们会远离这些期望。 虽然贝叶斯推断结合高效编码可以解释这种双重偏差,但现有模型依赖于手工设计的先验或固定编码器,无法说明这些表示和推断如何通过学习产生。 我们引入了一个生成对抗推理(GAI)网络,该网络可以直接从数据中同时学习感觉表示和推理策略,而无需假设显式的似然函数或先验。 通过联合重建和对抗训练,模型学习到一种近似于与信息论预测一致的高效编码表示。 在具有不同信噪比的Gabor刺激上进行训练,GAI自发地再现了从先验吸引到排斥的完整过渡,并恢复了高效编码理论预测的费舍尔信息轮廓。 它还比监督或变分方法更稳健地捕捉到人类感知中观察到的特征偏差反转。 这些结果表明,一个通过对抗训练的网络可以共同获得高效的感官编码并支持贝叶斯一致的行为,提供了一种神经上合理的端到端感知偏差解释,将规范理论和深度学习统一起来。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.