Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2506.02768

帮助 | 高级搜索

计算机科学 > 机器人技术

arXiv:2506.02768 (cs)
[提交于 2025年6月3日 ]

标题: 基于最优传输的几何视觉伺服

标题: Geometric Visual Servo Via Optimal Transport

Authors:Ethan Canzini, Simon Pope, Ashutosh Tiwari
摘要: 在为机器人系统开发控制律时,考察其性能的主要因素是选择能够实现平滑跟踪参考输入的输入。 在机器人操作的背景下,这涉及将物体或末端执行器从初始姿态移动到目标姿态。 机器人操作控制律经常使用视觉系统作为误差生成器来跟踪特征并产生控制输入。 然而,当前的控制算法并未考虑提取的概率特征,而是依赖于手工调整的特征提取方法。 此外,目标特征可能处于静态姿态,从而允许结合姿态和特征误差用于控制生成。 我们提出了一种几何控制律,用于解决机器人操作器的视觉伺服问题。 来自摄像机的输入构成了三维特殊欧几里得任务空间群上的概率测度,在该群中,当前姿态与期望姿态之间的 Wasserstein 距离类似于几何测地线。 基于此,我们开发了一种控制器,通过结合经典PD控制与重力补偿,并利用三维特殊欧几里得群上的测地流来最小化误差,从而实现了姿态和基于图像的视觉伺服。 我们在一组测试用例上展示了我们的结果,证明了我们的方法对多种初始位置的泛化能力。
摘要: When developing control laws for robotic systems, the principle factor when examining their performance is choosing inputs that allow smooth tracking to a reference input. In the context of robotic manipulation, this involves translating an object or end-effector from an initial pose to a target pose. Robotic manipulation control laws frequently use vision systems as an error generator to track features and produce control inputs. However, current control algorithms don't take into account the probabilistic features that are extracted and instead rely on hand-tuned feature extraction methods. Furthermore, the target features can exist in a static pose thus allowing a combined pose and feature error for control generation. We present a geometric control law for the visual servoing problem for robotic manipulators. The input from the camera constitutes a probability measure on the 3-dimensional Special Euclidean task-space group, where the Wasserstein distance between the current and desired poses is analogous with the geometric geodesic. From this, we develop a controller that allows for both pose and image-based visual servoing by combining classical PD control with gravity compensation with error minimization through the use of geodesic flows on a 3-dimensional Special Euclidean group. We present our results on a set of test cases demonstrating the generalisation ability of our approach to a variety of initial positions.
评论: 19页,5幅图
主题: 机器人技术 (cs.RO) ; 系统与控制 (eess.SY)
引用方式: arXiv:2506.02768 [cs.RO]
  (或者 arXiv:2506.02768v1 [cs.RO] 对于此版本)
  https://doi.org/10.48550/arXiv.2506.02768
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Eytan Canzini [查看电子邮件]
[v1] 星期二, 2025 年 6 月 3 日 11:38:09 UTC (13,742 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
cs.SY
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-06
切换浏览方式为:
cs
cs.RO
eess
eess.SY

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号