Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2507.17367v1

帮助 | 高级搜索

计算机科学 > 计算机视觉与模式识别

arXiv:2507.17367v1 (cs)
[提交于 2025年7月23日 ]

标题: 探索基于区域的主动学习的空间多样性

标题: Exploring Spatial Diversity for Region-based Active Learning

Authors:Lile Cai, Xun Xu, Lining Zhang, Chuan-Sheng Foo
摘要: 当前最先进的语义分割方法基于在大规模标注数据集上训练的深度神经网络。获取这样的数据集会产生较大的标注成本,尤其是在密集像素级预测任务如语义分割中。我们考虑基于区域的主动学习作为一种在保持高性能的同时减少标注成本的策略。在这种情况下,选择有信息量的图像区域而不是整个图像进行标注。重要的是,我们认为在这种情况下的主动学习中,强制局部空间多样性是有益的,并且为了将空间多样性与传统的主动选择标准(例如数据样本不确定性)结合在一个统一的优化框架中,用于基于区域的主动学习。我们将这个框架应用于Cityscapes和PASCAL VOC数据集,并证明空间多样性的引入有效提高了基于不确定性和特征多样性的主动学习方法的性能。我们的框架仅使用了$95\%$的标注像素就达到了完全监督方法的$5-9\%$性能,超过了所有最先进的语义分割基于区域的主动学习方法。
摘要: State-of-the-art methods for semantic segmentation are based on deep neural networks trained on large-scale labeled datasets. Acquiring such datasets would incur large annotation costs, especially for dense pixel-level prediction tasks like semantic segmentation. We consider region-based active learning as a strategy to reduce annotation costs while maintaining high performance. In this setting, batches of informative image regions instead of entire images are selected for labeling. Importantly, we propose that enforcing local spatial diversity is beneficial for active learning in this case, and to incorporate spatial diversity along with the traditional active selection criterion, e.g., data sample uncertainty, in a unified optimization framework for region-based active learning. We apply this framework to the Cityscapes and PASCAL VOC datasets and demonstrate that the inclusion of spatial diversity effectively improves the performance of uncertainty-based and feature diversity-based active learning methods. Our framework achieves $95\%$ performance of fully supervised methods with only $5-9\%$ of the labeled pixels, outperforming all state-of-the-art region-based active learning methods for semantic segmentation.
评论: 发表于《IEEE图像处理汇刊》,2021年
主题: 计算机视觉与模式识别 (cs.CV)
引用方式: arXiv:2507.17367 [cs.CV]
  (或者 arXiv:2507.17367v1 [cs.CV] 对于此版本)
  https://doi.org/10.48550/arXiv.2507.17367
通过 DataCite 发表的 arXiv DOI(待注册)
相关 DOI: https://doi.org/10.1109/TIP.2021.3120041
链接到相关资源的 DOI

提交历史

来自: Lile Cai [查看电子邮件]
[v1] 星期三, 2025 年 7 月 23 日 10:04:25 UTC (7,150 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
cs.CV
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-07
切换浏览方式为:
cs

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号