计算机科学 > 机器人技术
[提交于 2025年7月7日
]
标题: DRAE:用于机器人终身学习和任务适应的动态检索增强专家网络
标题: DRAE: Dynamic Retrieval-Augmented Expert Networks for Lifelong Learning and Task Adaptation in Robotics
摘要: 我们引入了动态检索增强专家网络(DRAE),这是一种突破性的架构,通过结合专家混合(MoE)的动态路由能力;利用检索增强生成(RAG)的知识增强能力;引入一种新的分层强化学习(RL)框架;并通过ReflexNet-SchemaPlanner-HyperOptima(RSHO)进行协调,解决了终身学习、灾难性遗忘和任务适应的挑战。DRAE通过稀疏MoE门控机制动态路由专家模型,实现高效的资源分配,同时通过参数化检索(P-RAG)利用外部知识来增强学习过程。我们提出了一种新的RL框架,包括ReflexNet用于低级任务执行,SchemaPlanner用于符号推理,HyperOptima用于长期上下文建模,确保持续适应和记忆保留。实验结果表明,DRAE在长期任务保留和知识重用方面显著优于基线方法,在一组动态机器人操作任务中实现了82.5%的平均任务成功率,相比之下传统MoE模型为74.2%。此外,DRAE保持极低的遗忘率,在灾难性遗忘缓解方面优于最先进的方法。这些结果证明了我们的方法在为机器人实现灵活、可扩展和高效的终身学习方面的有效性。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.