Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2507.17192v1

帮助 | 高级搜索

计算机科学 > 计算机视觉与模式识别

arXiv:2507.17192v1 (cs)
[提交于 2025年7月23日 (此版本) , 最新版本 2025年7月28日 (v2) ]

标题: Vec2Face+ 用于人脸数据集生成

标题: Vec2Face+ for Face Dataset Generation

Authors:Haiyu Wu, Jaskirat Singh, Sicong Tian, Liang Zheng, Kevin W. Bowyer
摘要: 当将身份合成作为人脸识别的训练数据时,通常认为大的类间可分性和类内属性变化对于合成高质量的数据集是必不可少的。 % 这种信念通常是正确的,这也是我们的目标。 然而,当增加类内变化时,现有方法忽略了保持类内身份一致性的必要性。 % 为了解决这个问题并生成高质量的人脸训练数据,我们提出了Vec2Face+,这是一种生成模型,可以直接从图像特征生成图像,并允许对人脸身份和属性进行连续且容易的控制。 使用Vec2Face+,我们通过三种策略获得具有适当类间可分性、类内变化和身份一致性的数据集:1)我们采样与其它向量足够不同的向量以生成良好分离的身份;2)我们提出了一种AttrOP算法来增加一般属性的变化;3)我们提出了基于LoRA的姿态控制,用于生成具有侧面头部姿势的图像,这比AttrOP更高效且保留身份。 % 我们系统生成了VFace10K,一个包含10K身份的合成人脸数据集,使得FR模型在七个真实世界测试集中达到最先进的准确率。 将规模扩展到4M和12M图像,相应的VFace100K和VFace300K数据集在五个真实世界测试集中比真实世界训练数据集CASIA-WebFace具有更高的准确率。 这是第一次合成数据集在平均准确率上超过了CASIA-WebFace。 此外,我们发现只有1个合成数据集在双胞胎验证中优于随机猜测(\emph{即,50%}),并且使用合成身份训练的模型比使用真实身份训练的模型更具偏差。 这些都是未来研究的重要方面。
摘要: When synthesizing identities as face recognition training data, it is generally believed that large inter-class separability and intra-class attribute variation are essential for synthesizing a quality dataset. % This belief is generally correct, and this is what we aim for. However, when increasing intra-class variation, existing methods overlook the necessity of maintaining intra-class identity consistency. % To address this and generate high-quality face training data, we propose Vec2Face+, a generative model that creates images directly from image features and allows for continuous and easy control of face identities and attributes. Using Vec2Face+, we obtain datasets with proper inter-class separability and intra-class variation and identity consistency using three strategies: 1) we sample vectors sufficiently different from others to generate well-separated identities; 2) we propose an AttrOP algorithm for increasing general attribute variations; 3) we propose LoRA-based pose control for generating images with profile head poses, which is more efficient and identity-preserving than AttrOP. % Our system generates VFace10K, a synthetic face dataset with 10K identities, which allows an FR model to achieve state-of-the-art accuracy on seven real-world test sets. Scaling the size to 4M and 12M images, the corresponding VFace100K and VFace300K datasets yield higher accuracy than the real-world training dataset, CASIA-WebFace, on five real-world test sets. This is the first time a synthetic dataset beats the CASIA-WebFace in average accuracy. In addition, we find that only 1 out of 11 synthetic datasets outperforms random guessing (\emph{i.e., 50\%}) in twin verification and that models trained with synthetic identities are more biased than those trained with real identities. Both are important aspects for future investigation.
主题: 计算机视觉与模式识别 (cs.CV)
引用方式: arXiv:2507.17192 [cs.CV]
  (或者 arXiv:2507.17192v1 [cs.CV] 对于此版本)
  https://doi.org/10.48550/arXiv.2507.17192
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Haiyu Wu [查看电子邮件]
[v1] 星期三, 2025 年 7 月 23 日 04:34:56 UTC (10,996 KB)
[v2] 星期一, 2025 年 7 月 28 日 00:57:20 UTC (10,996 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • 其他格式
查看许可
当前浏览上下文:
cs.CV
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-07
切换浏览方式为:
cs

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号