Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > eess > arXiv:2501.06838v4

帮助 | 高级搜索

电气工程与系统科学 > 图像与视频处理

arXiv:2501.06838v4 (eess)
[提交于 2025年1月12日 (v1) ,修订后的 2025年3月12日 (此版本, v4) , 最新版本 2025年7月30日 (v5) ]

标题: 任意尺度超分辨率的广义高效二维高斯泼溅

标题: Generalized and Efficient 2D Gaussian Splatting for Arbitrary-scale Super-Resolution

Authors:Du Chen, Liyi Chen, Zhengqiang Zhang, Lei Zhang
摘要: 隐式神经表示(INR)已被成功用于任意尺度的超分辨率(ASR)。 然而,基于INR的模型需要多次查询多层感知机模块,并在每次查询中渲染一个像素,导致表示能力和计算效率不足。 最近,高斯点云(GS)在3D任务中的视觉质量和渲染速度方面表现出优于INR的优势,这促使我们探索GS是否可用于ASR任务。 然而,直接将GS应用于ASR极具挑战性,因为原始GS是一种通过过拟合每个单个场景的优化方法,而在ASR中,我们旨在学习一个能够泛化到不同图像和缩放因子的单一模型。 我们通过开发两种新技术克服了这些挑战。 首先,为了使GS适用于ASR,我们精心设计了一个架构,以前馈方式预测输入低分辨率图像对应的图像条件高斯分布。 每个高斯分布可以拟合复杂纹理区域的形状和方向,表现出强大的表示能力。 其次,我们实现了一种高效的可微分的基于2D GPU/CUDA的尺度感知光栅化,通过从预测的连续高斯分布中采样离散RGB值来渲染超分辨率图像。 通过端到端训练,我们优化的网络,即GSASR,可以对任何图像和未见过的缩放因子进行ASR。 大量实验验证了我们所提出方法的有效性。
摘要: Implicit Neural Representation (INR) has been successfully employed for Arbitrary-scale Super-Resolution (ASR). However, INR-based models need to query the multi-layer perceptron module numerous times and render a pixel in each query, resulting in insufficient representation capability and computational efficiency. Recently, Gaussian Splatting (GS) has shown its advantages over INR in both visual quality and rendering speed in 3D tasks, which motivates us to explore whether GS can be employed for the ASR task. However, directly applying GS to ASR is exceptionally challenging because the original GS is an optimization-based method through overfitting each single scene, while in ASR we aim to learn a single model that can generalize to different images and scaling factors. We overcome these challenges by developing two novel techniques. Firstly, to generalize GS for ASR, we elaborately design an architecture to predict the corresponding image-conditioned Gaussians of the input low-resolution image in a feed-forward manner. Each Gaussian can fit the shape and direction of an area of complex textures, showing powerful representation capability. Secondly, we implement an efficient differentiable 2D GPU/CUDA-based scale-aware rasterization to render super-resolved images by sampling discrete RGB values from the predicted continuous Gaussians. Via end-to-end training, our optimized network, namely GSASR, can perform ASR for any image and unseen scaling factors. Extensive experiments validate the effectiveness of our proposed method.
主题: 图像与视频处理 (eess.IV) ; 计算机视觉与模式识别 (cs.CV)
引用方式: arXiv:2501.06838 [eess.IV]
  (或者 arXiv:2501.06838v4 [eess.IV] 对于此版本)
  https://doi.org/10.48550/arXiv.2501.06838
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Du Chen [查看电子邮件]
[v1] 星期日, 2025 年 1 月 12 日 15:14:58 UTC (23,618 KB)
[v2] 星期二, 2025 年 1 月 14 日 14:09:23 UTC (23,618 KB)
[v3] 星期四, 2025 年 2 月 27 日 09:07:43 UTC (23,932 KB)
[v4] 星期三, 2025 年 3 月 12 日 12:03:16 UTC (23,939 KB)
[v5] 星期三, 2025 年 7 月 30 日 14:55:50 UTC (22,971 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • 其他格式
许可图标 查看许可
当前浏览上下文:
eess.IV
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-01
切换浏览方式为:
cs
cs.CV
eess

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号