Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2508.03189

帮助 | 高级搜索

计算机科学 > 计算机视觉与模式识别

arXiv:2508.03189 (cs)
[提交于 2025年8月5日 (v1) ,最后修订 2025年8月14日 (此版本, v2)]

标题: 基于无数据重放的连续人脸伪造检测中KAN局部性和特征漂移补偿投影的统一

标题: Unifying Locality of KANs and Feature Drift Compensation Projection for Data-free Replay based Continual Face Forgery Detection

Authors:Tianshuo Zhang, Siran Peng, Li Gao, Haoyuan Zhang, Xiangyu Zhu, Zhen Lei
摘要: 快速发展的面部伪造技术要求检测器不断适应新的伪造方法,因此将面部伪造检测置于持续学习的范式中。 然而,当检测器学习新的伪造类型时,其在先前类型上的性能往往会迅速下降,这种现象称为灾难性遗忘。 Kolmogorov-Arnold 网络(KANs)使用局部可塑的样条作为其激活函数,使其能够通过仅修改函数的局部区域来学习新任务,同时不影响其他区域。 因此,它们天然适合解决灾难性遗忘问题。 然而,KANs 有两个显著的局限性:1)样条对于建模高维图像无效,而适用于图像的替代激活函数缺乏局部性的基本特性;2)在持续学习中,当不同领域的特征重叠时,由于对相同区域的重复修改,不同领域的映射到不同曲线区域总是会崩溃。 在本文中,我们提出了一种基于 KAN 的持续面部伪造检测(KAN-CFD)框架,包括一个领域分组 KAN 检测器(DG-KD)和一种无需使用先前任务数据的数据自由重放特征分离策略,通过 KAN 漂移补偿投影(FS-KDCP)。 DG-KD 使 KAN 能够适应高维图像输入,同时保留局部性和局部可塑性。 FS-KDCP 在不使用先前任务数据的情况下避免了 KAN 输入空间的重叠。 实验结果表明,所提出的方法在显著减少遗忘的同时实现了优越的性能。
摘要: The rapid advancements in face forgery techniques necessitate that detectors continuously adapt to new forgery methods, thus situating face forgery detection within a continual learning paradigm. However, when detectors learn new forgery types, their performance on previous types often degrades rapidly, a phenomenon known as catastrophic forgetting. Kolmogorov-Arnold Networks (KANs) utilize locally plastic splines as their activation functions, enabling them to learn new tasks by modifying only local regions of the functions while leaving other areas unaffected. Therefore, they are naturally suitable for addressing catastrophic forgetting. However, KANs have two significant limitations: 1) the splines are ineffective for modeling high-dimensional images, while alternative activation functions that are suitable for images lack the essential property of locality; 2) in continual learning, when features from different domains overlap, the mapping of different domains to distinct curve regions always collapses due to repeated modifications of the same regions. In this paper, we propose a KAN-based Continual Face Forgery Detection (KAN-CFD) framework, which includes a Domain-Group KAN Detector (DG-KD) and a data-free replay Feature Separation strategy via KAN Drift Compensation Projection (FS-KDCP). DG-KD enables KANs to fit high-dimensional image inputs while preserving locality and local plasticity. FS-KDCP avoids the overlap of the KAN input spaces without using data from prior tasks. Experimental results demonstrate that the proposed method achieves superior performance while notably reducing forgetting.
主题: 计算机视觉与模式识别 (cs.CV)
引用方式: arXiv:2508.03189 [cs.CV]
  (或者 arXiv:2508.03189v2 [cs.CV] 对于此版本)
  https://doi.org/10.48550/arXiv.2508.03189
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Siran Peng [查看电子邮件]
[v1] 星期二, 2025 年 8 月 5 日 07:56:21 UTC (1,017 KB)
[v2] 星期四, 2025 年 8 月 14 日 10:56:05 UTC (1,017 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
cs
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-08
切换浏览方式为:
cs.CV

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号