Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2507.17373v1

帮助 | 高级搜索

计算机科学 > 计算机视觉与模式识别

arXiv:2507.17373v1 (cs)
[提交于 2025年7月23日 ]

标题: SFUOD:无源未知物体检测

标题: SFUOD: Source-Free Unknown Object Detection

Authors:Keon-Hee Park, Seun-An Choe, Gyeong-Moon Park
摘要: 无源目标检测将在一个源域上预训练的检测器适应到一个未标记的目标域,而无需访问标记的源数据。 虽然这种设置在实践中很有用,因为它消除了在领域自适应期间对源数据集的需求,但它在严格的假设下运行,即只有源域中预定义的对象存在于目标域中。 这种封闭集设置阻止检测器检测未定义的对象。 为了缓解这个假设,我们提出了无源未知对象检测(SFUOD),一种新的场景,使检测器不仅能够识别已知对象,还能将未定义对象检测为未知对象。 为此,我们提出了CollaPAUL(协作调优和基于主轴的未知标签),一种用于SFUOD的新框架。 协作调优通过跨域注意力机制,将辅助编码器的目标相关知识与预训练检测器的源相关知识相结合,以增强知识适应。 此外,基于主轴的未知标签通过主轴投影估计对象性并从模型预测中获取置信度分数,为未知对象分配伪标签。 所提出的CollaPAUL在SFUOD基准测试中达到了最先进的性能,广泛的实验验证了其有效性。
摘要: Source-free object detection adapts a detector pre-trained on a source domain to an unlabeled target domain without requiring access to labeled source data. While this setting is practical as it eliminates the need for the source dataset during domain adaptation, it operates under the restrictive assumption that only pre-defined objects from the source domain exist in the target domain. This closed-set setting prevents the detector from detecting undefined objects. To ease this assumption, we propose Source-Free Unknown Object Detection (SFUOD), a novel scenario which enables the detector to not only recognize known objects but also detect undefined objects as unknown objects. To this end, we propose CollaPAUL (Collaborative tuning and Principal Axis-based Unknown Labeling), a novel framework for SFUOD. Collaborative tuning enhances knowledge adaptation by integrating target-dependent knowledge from the auxiliary encoder with source-dependent knowledge from the pre-trained detector through a cross-domain attention mechanism. Additionally, principal axes-based unknown labeling assigns pseudo-labels to unknown objects by estimating objectness via principal axes projection and confidence scores from model predictions. The proposed CollaPAUL achieves state-of-the-art performances on SFUOD benchmarks, and extensive experiments validate its effectiveness.
评论: 本文已被ICCV 2025接受
主题: 计算机视觉与模式识别 (cs.CV) ; 人工智能 (cs.AI)
引用方式: arXiv:2507.17373 [cs.CV]
  (或者 arXiv:2507.17373v1 [cs.CV] 对于此版本)
  https://doi.org/10.48550/arXiv.2507.17373
通过 DataCite 发表的 arXiv DOI(待注册)

提交历史

来自: Keon Hee Park [查看电子邮件]
[v1] 星期三, 2025 年 7 月 23 日 10:16:25 UTC (3,569 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
cs.CV
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-07
切换浏览方式为:
cs
cs.AI

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号