Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2501.01689

帮助 | 高级搜索

计算机科学 > 计算机视觉与模式识别

arXiv:2501.01689 (cs)
[提交于 2025年1月3日 ]

标题: 基于双输入Transformer的网络从单个RGB视频中进行定量步态分析

标题: Quantitative Gait Analysis from Single RGB Videos Using a Dual-Input Transformer-Based Network

Authors:Hiep Dinh, Son Le, My Than, Minh Ho, Nicolas Vuillerme, Hieu Pham
摘要: 步态和运动分析已成为诊断健康状况、监测广泛疾病谱的疾病进展,并实施和评估治疗、手术和康复干预的成熟临床工具。 然而,定量运动评估仍受限于昂贵的动作捕捉系统和专业人员,限制了其可及性和更广泛的应用。 深度神经网络的最新进展使得通过单摄像头视频进行定量运动分析成为可能,为传统动作捕捉系统提供了一种可及的替代方案。 在本文中,我们提出了一种通过双模式输入卷积Transformer网络进行临床步态分析的高效方法。 所提出的系统利用双输入Transformer模型,从单视角摄像头拍摄的单张RGB视频中估计关键步态参数。 该系统在估计关键指标(如步态偏差指数(GDI)、膝关节屈曲角度、步长和步行频率)方面表现出高准确性,并在患有运动障碍的个体数据集上进行了验证。 值得注意的是,我们的方法在各种场景中超越了最先进的方法,使用更少的资源,并证明在临床应用中非常合适,尤其是在资源有限的环境中。
摘要: Gait and movement analysis have become a well-established clinical tool for diagnosing health conditions, monitoring disease progression for a wide spectrum of diseases, and to implement and assess treatment, surgery and or rehabilitation interventions. However, quantitative motion assessment remains limited to costly motion capture systems and specialized personnel, restricting its accessibility and broader application. Recent advancements in deep neural networks have enabled quantitative movement analysis using single-camera videos, offering an accessible alternative to conventional motion capture systems. In this paper, we present an efficient approach for clinical gait analysis through a dual-pattern input convolutional Transformer network. The proposed system leverages a dual-input Transformer model to estimate essential gait parameters from single RGB videos captured by a single-view camera. The system demonstrates high accuracy in estimating critical metrics such as the gait deviation index (GDI), knee flexion angle, step length, and walking cadence, validated on a dataset of individuals with movement disorders. Notably, our approach surpasses state-of-the-art methods in various scenarios, using fewer resources and proving highly suitable for clinical application, particularly in resource-constrained environments.
评论: 被接受在IEEE国际生物医学成像研讨会(ISBI 2025)上进行展示
主题: 计算机视觉与模式识别 (cs.CV)
引用方式: arXiv:2501.01689 [cs.CV]
  (或者 arXiv:2501.01689v1 [cs.CV] 对于此版本)
  https://doi.org/10.48550/arXiv.2501.01689
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Hieu Pham [查看电子邮件]
[v1] 星期五, 2025 年 1 月 3 日 08:10:08 UTC (3,209 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
cs.CV
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-01
切换浏览方式为:
cs

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号