计算机科学 > 计算机视觉与模式识别
[提交于 2025年6月26日
]
标题: 解锁约束:无源遮挡感知无缝分割
标题: Unlocking Constraints: Source-Free Occlusion-Aware Seamless Segmentation
摘要: 全景图像处理对于全场景感知至关重要,但面临如失真、透视遮挡和有限标注等约束。 以往的无监督领域自适应方法将标记的针孔数据的知识转移到未标记的全景图像,但它们需要访问源针孔数据。 为了解决这些问题,我们引入了一个更实际的任务,即无源遮挡感知无缝分割(SFOASS),并提出了其第一个解决方案,称为UNconstrained Learning Omni-Context知识(UNLOCK)。 具体而言,UNLOCK包括两个关键模块:全场景伪标签学习和非模式驱动的上下文学习。 在不依赖源数据或目标标签的情况下,该框架增强了模型,以实现360{\deg }视角覆盖和遮挡感知推理的分割。 此外,我们通过真实到真实和合成到真实适应设置对提出的SFOASS任务进行了基准测试。 实验结果表明,我们的无源方法实现了与有源方法相当的性能,在mAAP上达到10.9,在mAP上达到11.6,并且在mAPQ上比仅源方法提高了+4.3的绝对值。 所有数据和代码将在https://github.com/yihong-97/UNLOCK公开。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.