Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2408.08623

帮助 | 高级搜索

计算机科学 > 计算机视觉与模式识别

arXiv:2408.08623 (cs)
[提交于 2024年8月16日 (v1) ,最后修订 2025年4月9日 (此版本, v2)]

标题: 草图参考:草图合成的多任务评估基准

标题: SketchRef: a Multi-Task Evaluation Benchmark for Sketch Synthesis

Authors:Xingyue Lin, Xingjian Hu, Shuai Peng, Jianhua Zhu, Liangcai Gao
摘要: 速写是一种强大的艺术技巧,用于捕捉关于真实世界物体的关键视觉信息,并且在图像合成研究中越来越受到关注。然而,该领域缺乏一个统一的基准来评估各种合成方法的性能。为了解决这个问题,我们提出了SketchRef,这是第一个全面的多任务速写合成评估基准。SketchRef充分利用了速写与参考照片之间的共享特征。它引入了两个主要任务:类别预测和结构一致性估计,其中后者在以往的研究中很大程度上被忽视了。这些任务进一步分为四个领域的五个子任务:动物、常见物品、人体和面部。认识到速写中可识别性和简洁性之间的固有权衡,我们首次通过引入一种受简洁性约束的可识别性计算方法mRS来量化这种平衡,以确保公平和有意义的评估。为了验证我们的方法,我们收集了来自艺术爱好者的7,920份反馈,确认了我们提出的评估指标的有效性。此外,我们在基准上评估了现有的速写合成方法的表现,突出了它们的优点和缺点。我们希望通过这项研究建立一个标准化的基准,并为推进速写合成算法提供有价值的见解。
摘要: Sketching is a powerful artistic technique for capturing essential visual information about real-world objects and has increasingly attracted attention in image synthesis research. However, the field lacks a unified benchmark to evaluate the performance of various synthesis methods. To address this, we propose SketchRef, the first comprehensive multi-task evaluation benchmark for sketch synthesis. SketchRef fully leverages the shared characteristics between sketches and reference photos. It introduces two primary tasks: category prediction and structural consistency estimation, the latter being largely overlooked in previous studies. These tasks are further divided into five sub-tasks across four domains: animals, common things, human body, and faces. Recognizing the inherent trade-off between recognizability and simplicity in sketches, we are the first to quantify this balance by introducing a recognizability calculation method constrained by simplicity, mRS, ensuring fair and meaningful evaluations. To validate our approach, we collected 7,920 responses from art enthusiasts, confirming the effectiveness of our proposed evaluation metrics. Additionally, we evaluate the performance of existing sketch synthesis methods on our benchmark, highlighting their strengths and weaknesses. We hope this study establishes a standardized benchmark and offers valuable insights for advancing sketch synthesis algorithms.
主题: 计算机视觉与模式识别 (cs.CV) ; 人工智能 (cs.AI)
引用方式: arXiv:2408.08623 [cs.CV]
  (或者 arXiv:2408.08623v2 [cs.CV] 对于此版本)
  https://doi.org/10.48550/arXiv.2408.08623
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Xingyue Lin [查看电子邮件]
[v1] 星期五, 2024 年 8 月 16 日 09:32:26 UTC (17,101 KB)
[v2] 星期三, 2025 年 4 月 9 日 03:18:01 UTC (7,695 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
cs.CV
< 上一篇   |   下一篇 >
新的 | 最近的 | 2024-08
切换浏览方式为:
cs
cs.AI

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号