Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2508.19074

帮助 | 高级搜索

计算机科学 > 机器人技术

arXiv:2508.19074 (cs)
[提交于 2025年8月26日 ]

标题: 一种具有正确性保证的基于大语言模型的自然语言到机器人语言翻译框架

标题: An LLM-powered Natural-to-Robotic Language Translation Framework with Correctness Guarantees

Authors:ZhenDong Chen, ZhanShang Nie, ShiXing Wan, JunYi Li, YongTian Cheng, Shuai Zhao
摘要: 大型语言模型(LLM)越来越多地被部署在机器人中,以生成针对特定用户任务的机器人控制程序,从而实现具身智能。 现有方法主要关注利用LLM从自然语言中的用户任务直接生成可执行程序的LLM训练和提示设计。 然而,由于LLM的不一致性以及任务的高复杂性,这种尽力而为的方法经常导致生成代码中出现大量的编程错误,这在轻量级LLM被应用时显著削弱了效果。 本文介绍了一种自然-机器人语言翻译框架,该框架(i)为生成的控制程序提供正确性验证,并(ii)通过基于反馈的微调提高LLM在程序生成中的性能。 为了实现这一点,提出了一种机器人技能语言(RSL),以抽象掉控制程序的复杂细节,将自然语言任务与底层机器人技能联系起来。 然后,构建了RSL编译器和调试器,用于验证LLM生成的RSL程序,并向LLM提供错误反馈,以便对输出进行细化,直到通过编译器验证。 这在将LLM生成的程序卸载到机器人执行之前提供了正确性保证,显著提高了LLM驱动的机器人应用的效果。 实验表明,NRTrans在多种LLM和任务下优于现有方法,并且在轻量级LLM上实现了高成功率。
摘要: The Large Language Models (LLM) are increasingly being deployed in robotics to generate robot control programs for specific user tasks, enabling embodied intelligence. Existing methods primarily focus on LLM training and prompt design that utilize LLMs to generate executable programs directly from user tasks in natural language. However, due to the inconsistency of the LLMs and the high complexity of the tasks, such best-effort approaches often lead to tremendous programming errors in the generated code, which significantly undermines the effectiveness especially when the light-weight LLMs are applied. This paper introduces a natural-robotic language translation framework that (i) provides correctness verification for generated control programs and (ii) enhances the performance of LLMs in program generation via feedback-based fine-tuning for the programs. To achieve this, a Robot Skill Language (RSL) is proposed to abstract away from the intricate details of the control programs, bridging the natural language tasks with the underlying robot skills. Then, the RSL compiler and debugger are constructed to verify RSL programs generated by the LLM and provide error feedback to the LLM for refining the outputs until being verified by the compiler. This provides correctness guarantees for the LLM-generated programs before being offloaded to the robots for execution, significantly enhancing the effectiveness of LLM-powered robotic applications. Experiments demonstrate NRTrans outperforms the existing method under a range of LLMs and tasks, and achieves a high success rate for light-weight LLMs.
主题: 机器人技术 (cs.RO) ; 人工智能 (cs.AI); 编程语言 (cs.PL)
引用方式: arXiv:2508.19074 [cs.RO]
  (或者 arXiv:2508.19074v1 [cs.RO] 对于此版本)
  https://doi.org/10.48550/arXiv.2508.19074
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Zhendong Chen [查看电子邮件]
[v1] 星期二, 2025 年 8 月 26 日 14:32:49 UTC (462 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
cs
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-08
切换浏览方式为:
cs.AI
cs.PL
cs.RO

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号