定量生物学 > 神经与认知
[提交于 2025年7月13日
]
标题: 视觉变压器的自监督预训练用于动物行为分析和神经编码
标题: Self-supervised pretraining of vision transformers for animal behavioral analysis and neural encoding
摘要: 通过它所产生的行为的视角,才能完全理解大脑——这是现代神经科学研究所遵循的一个指导原则,但仍然存在重大的技术挑战。 许多研究使用摄像头捕捉行为,但视频分析方法通常依赖于需要大量标记数据的专业模型。 我们通过BEAST(基于Transformer自监督预训练的行为分析)提出了一种新颖且可扩展的框架,该框架为多种神经行为分析预训练实验特定的视觉Transformer。 BEAST结合了掩码自编码器和时间对比学习,以有效利用未标记的视频数据。 通过在多个物种上的全面评估,我们展示了在三个关键神经行为任务中的性能提升:提取与神经活动相关的行为特征,以及在单动物和多动物设置中的姿态估计和动作分割。 我们的方法建立了一个强大而通用的主干模型,在标记数据仍然稀缺的场景中加速行为分析。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.