Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2306.03497

帮助 | 高级搜索

计算机科学 > 计算机视觉与模式识别

arXiv:2306.03497 (cs)
[提交于 2023年6月6日 ]

标题: 二分类医学图像分割的指导特征增强

标题: Instructive Feature Enhancement for Dichotomous Medical Image Segmentation

Authors:Lian Liu, Han Zhou, Jiongquan Chen, Sijing Liu, Wenlong Shi, Dong Ni, Deng-Ping Fan, Xin Yang
摘要: 深度神经网络已被广泛应用于多种模态下许多解剖结构的二分类医学图像分割(DMIS),取得了有前景的性能。 然而,现有的网络倾向于在任务特定、繁重和复杂的设计上挣扎以提高准确性。 它们对哪些特征通道对分割更有益缺乏明确的指导,这可能是这些分割模型的性能和通用性受到阻碍的原因。 在本研究中,我们提出了一种指导性的特征增强方法,即IFE,以自适应地选择具有丰富纹理线索和强区分能力的特征通道,基于局部曲率或全局信息熵标准来增强原始特征。 IFE可即插即用,并适用于各种DMIS任务,它鼓励模型关注纹理丰富的特征,这对于模糊和具有挑战性的边界识别尤为重要,同时实现了简洁性、通用性和一定的可解释性。 为了评估所提出的IFE,我们构建了第一个大规模DMIS数据集Cosmos55k,该数据集包含来自7种模态和26个解剖结构的55,023张图像。 大量实验表明,IFE仅通过轻微修改即可提升不同解剖结构和模态的经典分割网络的性能。 代码可在https://github.com/yezi-66/IFE获取。
摘要: Deep neural networks have been widely applied in dichotomous medical image segmentation (DMIS) of many anatomical structures in several modalities, achieving promising performance. However, existing networks tend to struggle with task-specific, heavy and complex designs to improve accuracy. They made little instructions to which feature channels would be more beneficial for segmentation, and that may be why the performance and universality of these segmentation models are hindered. In this study, we propose an instructive feature enhancement approach, namely IFE, to adaptively select feature channels with rich texture cues and strong discriminability to enhance raw features based on local curvature or global information entropy criteria. Being plug-and-play and applicable for diverse DMIS tasks, IFE encourages the model to focus on texture-rich features which are especially important for the ambiguous and challenging boundary identification, simultaneously achieving simplicity, universality, and certain interpretability. To evaluate the proposed IFE, we constructed the first large-scale DMIS dataset Cosmos55k, which contains 55,023 images from 7 modalities and 26 anatomical structures. Extensive experiments show that IFE can improve the performance of classic segmentation networks across different anatomies and modalities with only slight modifications. Code is available at https://github.com/yezi-66/IFE
评论: 被MICCAI 2023接收
主题: 计算机视觉与模式识别 (cs.CV)
引用方式: arXiv:2306.03497 [cs.CV]
  (或者 arXiv:2306.03497v1 [cs.CV] 对于此版本)
  https://doi.org/10.48550/arXiv.2306.03497
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Lian Liu [查看电子邮件]
[v1] 星期二, 2023 年 6 月 6 日 08:28:55 UTC (6,804 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
cs
< 上一篇   |   下一篇 >
新的 | 最近的 | 2023-06
切换浏览方式为:
cs.CV

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号