计算机科学 > 计算机视觉与模式识别
[提交于 2025年8月6日
]
标题: 思考后再分割:一种针对指代音频-视觉分割的物体感知推理代理
标题: Think Before You Segment: An Object-aware Reasoning Agent for Referring Audio-Visual Segmentation
摘要: 参考音频-视觉分割(Ref-AVS)旨在根据给定的参考表达式对可听视频中的目标对象进行分割。 以往的工作通常依赖于通过多模态融合学习潜在嵌入,以提示可调节的SAM/SAM2解码器进行分割,这需要强大的像素级监督且缺乏可解释性。 从显式参考理解的新视角出发,我们提出了TGS-Agent,它将任务分解为思考-定位-分割的过程,通过首先通过多模态分析识别所指对象,然后进行粗粒度定位和精确分割,模仿人类的推理过程。 为此,我们首先提出了Ref-Thinker,一个能够对文本、视觉和听觉线索进行推理的多模态语言模型。 我们构建了一个带有显式对象感知思考-回答链的指令微调数据集,用于Ref-Thinker的微调。 由Ref-Thinker推断出的对象描述被用作Grounding-DINO和SAM2的显式提示,这些模型在不依赖像素级监督的情况下执行定位和分割。 此外,我们引入了R\textsuperscript{2}-AVSBench,一个新的基准测试,具有语言多样性和推理密集型的参考,以更好地评估模型的泛化能力。 我们的方法在标准Ref-AVSBench和提出的R\textsuperscript{2}-AVSBench上均取得了最先进的结果。 代码将在https://github.com/jasongief/TGS-Agent上提供。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.