定量生物学 > 神经与认知
[提交于 2024年2月5日
]
标题: 使用元强化学习进行视觉运动映射的抽象学习
标题: Learning to Abstract Visuomotor Mappings using Meta-Reinforcement Learning
摘要: 我们研究了人类获取多个视觉运动映射以生成新技能的能力。 使用网格导航范式,我们测试了作为不同“网格世界”的情境线索是否允许参与者更高效地学习两种不同的按键映射。 我们的结果表明,当提供情境信息时,任务表现显著更好。 对于在执行任务时是否接收情境信息的元强化学习代理来说,这一结论同样成立。 我们评估了它们预测人类任务表现的准确性,并分析了它们的内部表示。 结果表明,当使用不同的视觉运动映射时,情境线索允许在空间和时间上形成独立的表示,而缺乏这些线索则倾向于共享一个表示。 虽然这两种策略都可以允许学习多个视觉运动映射,但我们证明情境线索在可以学习的映射数量方面提供了计算优势。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.