Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2507.21384v1

帮助 | 高级搜索

计算机科学 > 机器人技术

arXiv:2507.21384v1 (cs)
[提交于 2025年7月28日 ]

标题: 投影新身体:穿戴式机器人学习行走过程中身体形象的演变

标题: Projecting the New Body: How Body Image Evolves During Learning to Walk with a Wearable Robot

Authors:I-Chieh Lee, He Huang
摘要: 可穿戴机器人技术的进步挑战了传统的人类运动系统定义,因为可穿戴机器人重新定义了身体结构、运动能力和对自身身体的感知。 我们通过选择性感知运动系数(SCoMo)在每次训练后测量步态表现和感知的身体图像。 基于将人类运动学习理论扩展到佩戴者-机器人系统的理论,我们假设在使用机械腿行走时感知的身体图像的学习与实际步态改善共同进化,并变得更加确定和准确。 我们的结果证实了运动学习同时改善了身体和感知的步态模式,使其趋于正常,表明通过练习,佩戴者将机械腿整合到他们的感觉运动系统中,以实现佩戴者-机器人运动协调。 然而,感知运动和实际运动之间仍然存在持续的差异,这可能是由于佩戴者无法直接感知和控制假肢。 此外,后期训练阶段的感知高估可能限制进一步的运动改善。 这些发现表明,增强人类对可穿戴机器人的感知以及频繁校准身体图像的感知对于有效的下肢可穿戴机器人训练和开发更具身体感的辅助技术至关重要。
摘要: Advances in wearable robotics challenge the traditional definition of human motor systems, as wearable robots redefine body structure, movement capability, and perception of their own bodies. We measured gait performance and perceived body images via Selected Coefficient of Perceived Motion, SCoMo, after each training session. Based on human motor learning theory extended to wearer-robot systems, we hypothesized that learning the perceived body image when walking with a robotic leg co-evolves with the actual gait improvement and becomes more certain and more accurate to the actual motion. Our result confirmed that motor learning improved both physical and perceived gait pattern towards normal, indicating that via practice the wearers incorporated the robotic leg into their sensorimotor systems to enable wearer-robot movement coordination. However, a persistent discrepancy between perceived and actual motion remained, likely due to the absence of direct sensation and control of the prosthesis from wearers. Additionally, the perceptual overestimation at the later training sessions might limit further motor improvement. These findings suggest that enhancing the human sense of wearable robots and frequent calibrating perception of body image are essential for effective training with lower limb wearable robots and for developing more embodied assistive technologies.
主题: 机器人技术 (cs.RO) ; 系统与控制 (eess.SY)
引用方式: arXiv:2507.21384 [cs.RO]
  (或者 arXiv:2507.21384v1 [cs.RO] 对于此版本)
  https://doi.org/10.48550/arXiv.2507.21384
通过 DataCite 发表的 arXiv DOI

提交历史

来自: I-Chieh Lee [查看电子邮件]
[v1] 星期一, 2025 年 7 月 28 日 23:34:57 UTC (1,349 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • 其他格式
查看许可
当前浏览上下文:
cs.RO
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-07
切换浏览方式为:
cs
cs.SY
eess
eess.SY

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号