计算机科学 > 人工智能
[提交于 2024年6月10日
(v1)
,最后修订 2025年1月8日 (此版本, v2)]
标题: 基于效用的基础设施维护优化的深度多目标强化学习
标题: Deep Multi-Objective Reinforcement Learning for Utility-Based Infrastructural Maintenance Optimization
摘要: 在本文中,我们引入了多目标深度集中式多智能体演员-评论家(MO-DCMAC),这是一种用于基础设施维护优化的多目标强化学习(MORL)方法,该领域传统上由单目标强化学习(RL)方法主导。 以前的单目标RL方法通过奖励塑造将多个目标(如倒塌概率和成本)结合成一个单一的奖励信号。 相比之下,MO-DCMAC可以直接优化多个目标的策略,即使效用函数是非线性的。 我们使用两个效用函数对MO-DCMAC进行了评估,这两个效用函数以倒塌概率和成本作为输入。 第一个效用函数是阈值效用,其中MO-DCMAC应最小化成本,使得倒塌概率永远不会超过阈值。 第二个效用函数基于资产管理者用于评估维护计划的失效模式、影响和关键性分析(FMECA)方法。 我们在多个维护环境中对MO-DCMAC进行了评估,包括基于阿姆斯特丹历史堤坝案例研究的环境。 MO-DCMAC的性能与基于当前用于构建维护计划的启发式规则的多种基于规则的策略进行了比较。 我们的结果表明,MO-DCMAC在各种环境和效用函数下均优于传统的基于规则的策略。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.