计算机科学 > 机器人技术
[提交于 2025年9月30日
]
标题: TGPO:用于信号时序逻辑任务的时序基础策略优化
标题: TGPO: Temporal Grounded Policy Optimization for Signal Temporal Logic Tasks
摘要: 学习控制策略以完成复杂且长期任务是机器人和自主系统中的一个核心挑战。信号时序逻辑(STL)为指定此类任务提供了一种强大且表达能力强的语言,但其非马尔可夫性质和固有的稀疏奖励使得难以通过标准强化学习(RL)算法解决。先前的RL方法仅关注有限的STL片段或使用STL鲁棒性评分作为稀疏的终端奖励。在本文中,我们提出了TGPO,即时间锚定策略优化,以解决一般的STL任务。TGPO将STL分解为定时子目标和不变约束,并提供了一个分层框架来处理这个问题。TGPO的高层组件为这些子目标提出具体的定时分配,而低层的时间条件策略则利用密集的阶段式奖励信号来实现序列化的子目标。在推理过程中,我们采样各种时间分配,并选择最有可能的分配供策略网络进行求解轨迹的展开。为了促进具有多个子目标的复杂STL的有效策略学习,我们利用已学习的评论家通过Metropolis-Hastings采样引导高层的时间搜索,将探索集中在时间可行的解决方案上。我们在五个环境中进行了实验,从低维导航到操作、无人机和四足动物运动。在广泛的STL任务下,TGPO显著优于最先进的基线(尤其是在高维和长时域情况下),与最佳基线相比,任务成功率平均提高了31.6%。代码将在https://github.com/mengyuest/TGPO提供。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.