计算机科学 > 计算机视觉与模式识别
[提交于 2025年5月1日
]
标题: AdCare-VLM:利用大型视觉语言模型(LVLM)监测长期药物依从性和护理
标题: AdCare-VLM: Leveraging Large Vision Language Model (LVLM) to Monitor Long-Term Medication Adherence and Care
摘要: 慢性疾病,包括糖尿病、高血压、哮喘、艾滋病、癫痫和肺结核,需要严格遵守药物治疗以避免疾病进展、管理症状并降低死亡率。依从性常常受到患者行为、护理者支持、高昂的医疗费用以及医疗基础设施不足等因素的影响。 我们提出了AdCare-VLM,这是一种基于Video-LLaVA的专用多模态大型视觉语言模型(LVLM),旨在通过患者的视频来进行关于药物依从性的视觉问答(VQA)。 我们使用一个包含806个自定义标注的肺结核(TB)药物监测视频的私有数据集,这些视频由临床专家标记,以微调模型以检测依从性模式。 我们介绍了LLM-TB-VQA,这是一个详细的医疗依从性VQA数据集,包含了正面、负面和模糊的依从性案例。 我们的方法识别了可视特征之间的相关性,例如患者面部的清晰可见度、药物、饮水量以及摄入行为,并将其与标题中的相关医学概念关联起来。 这促进了对齐的视觉-语言表示的整合,提高了多模态交互的效果。 实验结果显示,我们的方法优于参数高效微调(PEFT)启用的VLM模型,如LLaVA-V1.5和Chat-UniVi,绝对改进范围从3.1\%到5.9\%,具体取决于不同的低秩适应(LoRA)配置。 全面的消融研究和注意力图可视化证实了我们的方法,增强了可解释性。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.