计算机科学 > 计算机视觉与模式识别
[提交于 2025年1月11日
(v1)
,最后修订 2025年7月23日 (此版本, v2)]
标题: NVS-SQA:探索无参考的神经合成场景的自监督质量表征学习
标题: NVS-SQA: Exploring Self-Supervised Quality Representation Learning for Neurally Synthesized Scenes without References
摘要: 神经视图合成(NVS),如NeRF和3D高斯点云,能够从稀疏视角有效生成逼真的场景,通常通过PSNR、SSIM和LPIPS等质量评估方法进行评估。 然而,这些全参考方法通过将合成视图与参考视图进行比较,可能无法完全捕捉神经合成场景(NSS)的感知质量,特别是由于密集参考视图的可用性有限。 此外,获取人类感知标签的挑战阻碍了大规模标注数据集的创建,可能导致模型过拟合和泛化能力下降。 为了解决这些问题,我们提出了NVS-SQA,这是一种 NSS 质量评估方法,通过自监督学习来学习无参考质量表示,而无需依赖人工标签。 传统的自监督学习主要依赖于“同一实例,相似表示”的假设和大规模数据集。 然而,鉴于这些条件在 NSS 质量评估中并不适用,我们采用了启发式线索和质量分数作为学习目标,并结合专门的对比对准备过程,以提高学习的有效性和效率。 结果表明,NVS-SQA在17种无参考方法中表现优异(即在SRCC上平均高出109.5%,PLCC上高出98.6%,KRCC上高出91.5%),甚至在所有评估指标上都超过了16种全参考方法(即在SRCC上高出22.9%,PLCC上高出19.1%,KRCC上高出18.6%)。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.