定量生物学 > 细胞行为
[提交于 2025年1月7日
]
标题: 使用强化学习的趋化运动
标题: Run-and-tumble chemotaxis using reinforcement learning
摘要: 细菌细胞通过运行和翻滚运动在环境中沿着吸引物浓度梯度向上移动。通过延长向上运行时间和缩短向下运行时间,细胞向高吸引物区域迁移。受此启发,我们制定了一种强化学习(RL)算法,其中智能体在存在吸引物梯度的一维环境中移动。智能体可以执行两种动作:要么沿同一方向持续运动,要么改变方向。我们根据智能体轨迹的近期历史为这些动作分配成本。我们提出的问题是:在不同类型的吸引物环境中,哪种RL策略效果最好。我们通过智能体的能力来量化RL策略的效率,(a)在长时间后定位在有利区域,以及(b)了解其完整环境。根据吸引物分布和初始条件,我们发现需要在探索和利用之间找到最佳平衡,以确保最高效的性能。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.