计算机科学 > 计算机视觉与模式识别
[提交于 2025年6月22日
(v1)
,最后修订 2025年6月26日 (此版本, v2)]
标题: MiCo:用于全切片图像分析的上下文感知聚类多重实例学习
标题: MiCo: Multiple Instance Learning with Context-Aware Clustering for Whole Slide Image Analysis
摘要: 多实例学习(MIL)在组织病理学全切片图像(WSI)分析中用于癌症诊断和预后显示出显著的前景。 然而,WSI的固有空间异质性带来了关键挑战,因为形态学相似的组织类型通常分散在不同的解剖区域。 传统MIL方法难以建模这些分散的组织分布并有效捕捉跨区域的空间交互。 为了解决这些限制,我们提出了一种具有上下文感知聚类的新型多实例学习框架(MiCo),旨在增强WSI中的跨区域组织内相关性和加强组织间语义关联。 MiCo首先通过聚类实例来提炼有区别的形态模式,聚类中心作为语义锚点。 为了增强跨区域的组织内相关性,MiCo采用了一个聚类路径模块,通过特征相似性动态连接不同区域的同类型实例。 这些语义锚点作为上下文中心,传播语义关系以优化实例级表示。 为了消除语义碎片并加强组织间语义关联,MiCo集成了一个聚类缩减模块,该模块合并冗余锚点,同时增强不同语义组之间的信息交换。 在九个大规模公开癌症数据集上的两个具有挑战性的任务的广泛实验表明了MiCo的有效性,展示了其优于最先进方法的性能。 代码可在 https://github.com/junjianli106/MiCo 获取。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.