Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2509.00777

帮助 | 高级搜索

计算机科学 > 图形学

arXiv:2509.00777 (cs)
[提交于 2025年8月31日 ]

标题: 内在现实:将内在任何东西从合成对象适应到真实对象

标题: IntrinsicReal: Adapting IntrinsicAnything from Synthetic to Real Objects

Authors:Xiaokang Wei, Zizheng Yan, Zhangyang Xiong, Yiming Hao, Yipeng Qin, Xiaoguang Han
摘要: 从在真实环境中捕获的单个RGB图像(例如MVImgNet数据集)中估计反照率(也称为内在图像分解)由于缺乏配对图像及其真实反照率而面临重大挑战。 因此,尽管最近的方法(例如IntrinsicAnything)通过利用强大的扩散先验取得了突破,但它们主要在大规模合成数据集(例如Objaverse)上进行训练,并直接应用于真实世界的RGB图像,这忽略了合成数据和真实数据之间的巨大领域差距,导致泛化性能不佳。 在本工作中,我们通过提出IntrinsicReal,一种新颖的领域自适应框架来解决这一差距,该框架为真实世界的内在图像分解弥合了上述领域差距。 具体来说,我们的IntrinsicReal通过使用一种新的双伪标签策略选择的高质量输出反照率对IntrinsicAnything进行微调,从而适应真实领域:i)基于分类器预测的绝对置信度阈值进行伪标签标注,以及ii)使用分类器预测对于单个输入对象的相对偏好排名进行伪标签标注。 这种策略受到人类评估的启发,其中识别最高质量的输出是简单的,但对于次优情况,绝对分数变得不太可靠。 在这些情况下,输出的相对比较会更加准确。 为了实现这一点,我们提出了一种新的两阶段流程,依次应用这些伪标签技术,以有效地将IntrinsicAnything适应到真实领域。 实验结果表明,我们的IntrinsicReal显著优于现有方法,在合成和真实世界数据集上的反照率估计方面达到了最先进的结果。
摘要: Estimating albedo (a.k.a., intrinsic image decomposition) from single RGB images captured in real-world environments (e.g., the MVImgNet dataset) presents a significant challenge due to the absence of paired images and their ground truth albedos. Therefore, while recent methods (e.g., IntrinsicAnything) have achieved breakthroughs by harnessing powerful diffusion priors, they remain predominantly trained on large-scale synthetic datasets (e.g., Objaverse) and applied directly to real-world RGB images, which ignores the large domain gap between synthetic and real-world data and leads to suboptimal generalization performance. In this work, we address this gap by proposing IntrinsicReal, a novel domain adaptation framework that bridges the above-mentioned domain gap for real-world intrinsic image decomposition. Specifically, our IntrinsicReal adapts IntrinsicAnything to the real domain by fine-tuning it using its high-quality output albedos selected by a novel dual pseudo-labeling strategy: i) pseudo-labeling with an absolute confidence threshold on classifier predictions, and ii) pseudo-labeling using the relative preference ranking of classifier predictions for individual input objects. This strategy is inspired by human evaluation, where identifying the highest-quality outputs is straightforward, but absolute scores become less reliable for sub-optimal cases. In these situations, relative comparisons of outputs become more accurate. To implement this, we propose a novel two-phase pipeline that sequentially applies these pseudo-labeling techniques to effectively adapt IntrinsicAnything to the real domain. Experimental results show that our IntrinsicReal significantly outperforms existing methods, achieving state-of-the-art results for albedo estimation on both synthetic and real-world datasets.
主题: 图形学 (cs.GR) ; 计算机视觉与模式识别 (cs.CV)
引用方式: arXiv:2509.00777 [cs.GR]
  (或者 arXiv:2509.00777v1 [cs.GR] 对于此版本)
  https://doi.org/10.48550/arXiv.2509.00777
通过 DataCite 发表的 arXiv DOI(待注册)

提交历史

来自: Xiaokang Wei [查看电子邮件]
[v1] 星期日, 2025 年 8 月 31 日 10:15:31 UTC (16,059 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
cs.GR
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-09
切换浏览方式为:
cs
cs.CV

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号