Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > eess > arXiv:2501.15733

帮助 | 高级搜索

电气工程与系统科学 > 图像与视频处理

arXiv:2501.15733 (eess)
[提交于 2025年1月27日 ]

标题: 利用视频视觉变压器从3D脑部MRI进行阿尔茨海默病诊断

标题: Leveraging Video Vision Transformer for Alzheimer's Disease Diagnosis from 3D Brain MRI

Authors:Taymaz Akan, Sait Alp, Md. Shenuarin Bhuiyan, Elizabeth A. Disbrow, Steven A. Conrad, John A. Vanchiere, Christopher G. Kevil, Mohammad A. N. Bhuiyan
摘要: 阿尔茨海默病(AD)是一种影响全球数百万人的神经退行性疾病,需要早期和准确的诊断以实现最佳患者管理。近年来,深度学习的进步在医学图像分析中显示出显著的潜力。方法 在这项研究中,我们提出了“ViTranZheimer”,一种利用视频视觉变压器分析3D脑部MRI数据的AD诊断方法。通过将3D MRI体积视为视频,我们利用切片之间的时序依赖性来捕捉复杂的结构关系。视频视觉变压器的自注意力机制使模型能够学习长距离依赖关系并识别可能表明AD进展的细微模式。我们提出的深度学习框架旨在提高AD诊断的准确性和敏感性,为临床医生提供一种用于早期检测和干预的工具。我们使用ADNI数据集验证了视频视觉变压器的性能,并与其他相关模型进行了比较分析。结果 所提出的ViTranZheimer模型与两个混合模型CNN-BiLSTM和ViT-BiLSTM进行了比较。CNN-BiLSTM是卷积神经网络(CNN)和双向长短期记忆网络(BiLSTM)的组合,而ViT-BiLSTM是视觉变压器(ViT)与BiLSTM的组合。ViTranZheimer、CNN-BiLSTM和ViT-BiLSTM模型达到的准确率分别为98.6%、96.479%和97.465%。ViTranZheimer在准确率方面达到最高值98.6%,在该评估指标上优于其他模型,表明其在该特定评估指标上的优越性能。结论 这项研究推进了深度学习技术在神经影像学和阿尔茨海默病研究中的应用理解,为更早和更少侵入性的临床诊断铺平了道路。
摘要: Alzheimer's disease (AD) is a neurodegenerative disorder affecting millions worldwide, necessitating early and accurate diagnosis for optimal patient management. In recent years, advancements in deep learning have shown remarkable potential in medical image analysis. Methods In this study, we present "ViTranZheimer," an AD diagnosis approach which leverages video vision transformers to analyze 3D brain MRI data. By treating the 3D MRI volumes as videos, we exploit the temporal dependencies between slices to capture intricate structural relationships. The video vision transformer's self-attention mechanisms enable the model to learn long-range dependencies and identify subtle patterns that may indicate AD progression. Our proposed deep learning framework seeks to enhance the accuracy and sensitivity of AD diagnosis, empowering clinicians with a tool for early detection and intervention. We validate the performance of the video vision transformer using the ADNI dataset and conduct comparative analyses with other relevant models. Results The proposed ViTranZheimer model is compared with two hybrid models, CNN-BiLSTM and ViT-BiLSTM. CNN-BiLSTM is the combination of a convolutional neural network (CNN) and a bidirectional long-short-term memory network (BiLSTM), while ViT-BiLSTM is the combination of a vision transformer (ViT) with BiLSTM. The accuracy levels achieved in the ViTranZheimer, CNN-BiLSTM, and ViT-BiLSTM models are 98.6%, 96.479%, and 97.465%, respectively. ViTranZheimer demonstrated the highest accuracy at 98.6%, outperforming other models in this evaluation metric, indicating its superior performance in this specific evaluation metric. Conclusion This research advances the understanding of applying deep learning techniques in neuroimaging and Alzheimer's disease research, paving the way for earlier and less invasive clinical diagnosis.
主题: 图像与视频处理 (eess.IV) ; 人工智能 (cs.AI); 计算机视觉与模式识别 (cs.CV)
引用方式: arXiv:2501.15733 [eess.IV]
  (或者 arXiv:2501.15733v1 [eess.IV] 对于此版本)
  https://doi.org/10.48550/arXiv.2501.15733
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Taymaz Akan [查看电子邮件]
[v1] 星期一, 2025 年 1 月 27 日 02:18:08 UTC (1,105 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • 其他格式
许可图标 查看许可
当前浏览上下文:
eess.IV
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-01
切换浏览方式为:
cs
cs.AI
cs.CV
eess

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号