计算机科学 > 机器学习
[提交于 2025年5月29日
(v1)
,最后修订 2025年7月2日 (此版本, v2)]
标题: 温室气候控制的闭环交互强化学习
标题: Grower-in-the-Loop Interactive Reinforcement Learning for Greenhouse Climate Control
摘要: 气候控制对于温室生产至关重要,因为它直接影响作物生长和资源利用。 强化学习(RL)在该领域受到了越来越多的关注,但仍面临挑战,包括训练效率有限和对初始学习条件的高度依赖。 交互式强化学习(Interactive RL),即将人类(种植者)输入与RL智能体的学习相结合,为克服这些挑战提供了一种潜在的解决方案。 然而,交互式RL尚未应用于温室气候控制,可能面临与不完美输入相关的挑战。 因此,本文旨在通过以下方式探索将带有不完美输入的交互式RL应用于温室气候控制的可能性和性能:(1)开发三种针对温室气候控制的代表性交互式RL算法(奖励塑造、策略塑造和控制共享);(2)分析输入特征通常相互矛盾的情况,以及它们之间的权衡如何使种植者的输入难以完美;(3)提出一种基于神经网络的方法,在输入可用性有限的情况下增强交互式RL智能体的鲁棒性;(4)在模拟的温室环境中对三种带有不完美输入的交互式RL算法进行综合评估。 演示表明,结合不完美种植者输入的交互式RL有潜力提高RL智能体的性能。 影响动作选择的RL算法,如策略塑造和控制共享,在处理不完美输入时表现更好,分别实现了8.4%和6.8%的利润提升。 相比之下,一种操纵奖励函数的算法——奖励塑造,对不完美输入敏感,并导致利润下降9.4%。 这突显了在整合不完美输入时选择适当机制的重要性。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.