Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2501.03074

帮助 | 高级搜索

计算机科学 > 计算机视觉与模式识别

arXiv:2501.03074 (cs)
[提交于 2025年1月6日 ]

标题: AIF-SFDA:用于医学图像分割的自主信息过滤驱动无源域适应

标题: AIF-SFDA: Autonomous Information Filter-driven Source-Free Domain Adaptation for Medical Image Segmentation

Authors:Haojin Li, Heng Li, Jianyu Chen, Rihan Zhong, Ke Niu, Huazhu Fu, Jiang Liu
摘要: 从领域相关信息(DVI)中解耦领域无关信息(DII)是缓解深度学习算法在实际应用中领域偏移的一种显著策略。然而,在医疗环境中,数据收集和隐私方面的担忧通常会限制对训练和测试数据的访问,阻碍了现有方法对信息的实证解耦。为了解决这个问题,我们提出了一种自主信息过滤驱动的无源领域自适应(AIF-SFDA)算法,该算法利用基于频率的可学习信息过滤器来自主解耦DVI和DII。信息瓶颈(IB)和自监督(SS)被引入以优化可学习的频率过滤器。IB控制过滤器内的信息流以减少冗余的DVI,而SS则在与特定任务和图像模态一致的情况下保留DII。因此,自主信息过滤器可以仅依靠目标数据克服领域偏移。进行了一系列实验,涵盖多种医学图像模态和分割任务,通过与领先算法和消融研究的比较来展示AIF-SFDA的优势。代码可在 https://github.com/JingHuaMan/AIF-SFDA 获取。
摘要: Decoupling domain-variant information (DVI) from domain-invariant information (DII) serves as a prominent strategy for mitigating domain shifts in the practical implementation of deep learning algorithms. However, in medical settings, concerns surrounding data collection and privacy often restrict access to both training and test data, hindering the empirical decoupling of information by existing methods. To tackle this issue, we propose an Autonomous Information Filter-driven Source-free Domain Adaptation (AIF-SFDA) algorithm, which leverages a frequency-based learnable information filter to autonomously decouple DVI and DII. Information Bottleneck (IB) and Self-supervision (SS) are incorporated to optimize the learnable frequency filter. The IB governs the information flow within the filter to diminish redundant DVI, while SS preserves DII in alignment with the specific task and image modality. Thus, the autonomous information filter can overcome domain shifts relying solely on target data. A series of experiments covering various medical image modalities and segmentation tasks were conducted to demonstrate the benefits of AIF-SFDA through comparisons with leading algorithms and ablation studies. The code is available at https://github.com/JingHuaMan/AIF-SFDA.
评论: 共9页(7页正文,2页参考文献),6幅图,已被AAAI 2025接收
主题: 计算机视觉与模式识别 (cs.CV)
引用方式: arXiv:2501.03074 [cs.CV]
  (或者 arXiv:2501.03074v1 [cs.CV] 对于此版本)
  https://doi.org/10.48550/arXiv.2501.03074
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Haojin Li [查看电子邮件]
[v1] 星期一, 2025 年 1 月 6 日 15:11:24 UTC (6,099 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
cs.CV
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-01
切换浏览方式为:
cs

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号