统计学 > 机器学习
[提交于 2025年10月17日
]
标题: RankSEG-RMA:一种通过互反矩近似实现的高效分割算法
标题: RankSEG-RMA: An Efficient Segmentation Algorithm via Reciprocal Moment Approximation
摘要: 语义分割为图像中的每个像素分配其对应的类别,并通常使用交并比(IoU)和Dice度量来量化预测分割掩码与真实分割掩码之间的重叠。在文献中,大多数现有方法估计像素级的类别概率,然后应用argmax或阈值处理以获得最终预测。这些方法已被证明通常会导致不一致或次优的结果,因为它们不直接最大化分割度量。为了解决这个问题,提出了一种新颖的一致性分割框架RankSEG,其中包含专门设计用于优化Dice和IoU度量的RankDice和RankIoU。尽管RankSEG几乎保证性能提升,但它存在两个主要缺点。首先,它的计算成本高——RankDice的复杂度为O(d log d),具有较大的常数因子(其中d表示像素数量),而RankIoU表现出更高的复杂度O(d^2),因此限制了其实际应用。例如,在LiTS中,使用RankSEG进行预测需要16.33秒,而使用argmax规则只需0.01秒。其次,RankSEG仅适用于重叠分割设置,其中多个类别可以占据同一像素,这与通常假设非重叠分割的标准基准相矛盾。在本文中,我们通过RankSEG的互反矩近似(RMA)克服了这两个缺点,具体贡献如下:(i) 我们使用RMA改进RankSEG,即RankSEG-RMA,将两种算法的复杂度降低到O(d),同时保持相当的性能;(ii) 受RMA的启发,我们开发了一个像素级得分函数,使其能够在非重叠分割设置中高效实现。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.