Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2507.05068v1

帮助 | 高级搜索

计算机科学 > 计算机视觉与模式识别

arXiv:2507.05068v1 (cs)
[提交于 2025年7月7日 ]

标题: ICAS:从自回归图像生成模型中检测训练数据

标题: ICAS: Detecting Training Data from Autoregressive Image Generative Models

Authors:Hongyao Yu, Yixiang Qiu, Yiheng Yang, Hao Fang, Tianqu Zhuang, Jiaxin Hong, Bin Chen, Hao Wu, Shu-Tao Xia
摘要: 自回归图像生成已经取得了快速的发展,其中具有代表性的模型如逐尺度视觉自回归推动了视觉合成的边界。 然而,这些发展也引发了关于数据隐私和版权的重要担忧。 作为回应,训练数据检测已成为识别模型训练中未经授权数据使用的关键任务。 为了更好地了解自回归图像生成模型对此类检测的脆弱性,我们进行了首次将成员推断应用于该领域的研究。 我们的方法包括两个关键组件:隐式分类和自适应得分聚合策略。 首先,我们在查询图像中计算隐式的逐标记分类得分。 然后我们提出一种自适应得分聚合策略以获得最终得分,该策略更重视得分较低的标记。 较高的最终得分表明该样本更可能涉及训练集。 为了验证我们方法的有效性,我们将原本为大型语言模型设计的现有检测算法适应到视觉自回归模型中。 大量实验表明,我们的方法在类别条件和文本到图像场景中都表现出优越性。 此外,在各种数据变换下,我们的方法表现出强大的鲁棒性和泛化能力。 此外,充分的实验表明了两个新的关键发现:(1) 成员推断的线性缩放定律,揭示了大型基础模型的脆弱性。 (2) 逐尺度视觉自回归模型的训练数据比其他自回归范式更容易检测。 我们的代码可在 https://github.com/Chrisqcwx/ImageAR-MIA 获取。
摘要: Autoregressive image generation has witnessed rapid advancements, with prominent models such as scale-wise visual auto-regression pushing the boundaries of visual synthesis. However, these developments also raise significant concerns regarding data privacy and copyright. In response, training data detection has emerged as a critical task for identifying unauthorized data usage in model training. To better understand the vulnerability of autoregressive image generative models to such detection, we conduct the first study applying membership inference to this domain. Our approach comprises two key components: implicit classification and an adaptive score aggregation strategy. First, we compute the implicit token-wise classification score within the query image. Then we propose an adaptive score aggregation strategy to acquire a final score, which places greater emphasis on the tokens with lower scores. A higher final score indicates that the sample is more likely to be involved in the training set. To validate the effectiveness of our method, we adapt existing detection algorithms originally designed for LLMs to visual autoregressive models. Extensive experiments demonstrate the superiority of our method in both class-conditional and text-to-image scenarios. Moreover, our approach exhibits strong robustness and generalization under various data transformations. Furthermore, sufficient experiments suggest two novel key findings: (1) A linear scaling law on membership inference, exposing the vulnerability of large foundation models. (2) Training data from scale-wise visual autoregressive models is easier to detect than other autoregressive paradigms.Our code is available at https://github.com/Chrisqcwx/ImageAR-MIA.
评论: ACM MM 2025
主题: 计算机视觉与模式识别 (cs.CV) ; 人工智能 (cs.AI); 密码学与安全 (cs.CR)
引用方式: arXiv:2507.05068 [cs.CV]
  (或者 arXiv:2507.05068v1 [cs.CV] 对于此版本)
  https://doi.org/10.48550/arXiv.2507.05068
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Hongyao Yu [查看电子邮件]
[v1] 星期一, 2025 年 7 月 7 日 14:50:42 UTC (1,374 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
cs.CV
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-07
切换浏览方式为:
cs
cs.AI
cs.CR

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号