Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2501.04985

帮助 | 高级搜索

计算机科学 > 密码学与安全

arXiv:2501.04985 (cs)
[提交于 2025年1月9日 ]

标题: SpaLLM-Guard:使用开源和商业大语言模型进行短信垃圾邮件检测

标题: SpaLLM-Guard: Pairing SMS Spam Detection Using Open-source and Commercial LLMs

Authors:Muhammad Salman, Muhammad Ikram, Nardine Basta, Mohamed Ali Kaafar
摘要: 日益增长的短信垃圾信息威胁,由不断演变的对抗技术和概念漂移驱动,需要更加稳健和自适应的检测方法。 在本文中,我们评估了大型语言模型(LLMs)在短信垃圾信息检测中的潜力,比较了它们在零样本、少量样本、微调和思维链提示方法上的性能。 使用一个全面的短信消息数据集,我们评估了GPT-4、DeepSeek、LLAMA-2和Mixtral等知名LLMs的垃圾信息检测能力。 我们的研究结果表明,尽管零样本学习提供了便利性,但它对于有效的垃圾信息检测不可靠。 少量样本学习,特别是通过精心选择的示例,可以提高检测效果,但不同模型之间表现出一定的差异性。 微调成为最有效的策略,Mixtral达到了98.6%的准确率,并且误报率和漏报率均低于2%,符合稳健垃圾信息检测的标准。 此外,我们探讨了这些模型对对抗攻击的鲁棒性,发现微调显著提高了对可见和不可见篡改的鲁棒性。 最后,我们研究了概念漂移的影响,并证明微调的LLMs,尤其是结合少量样本学习时,可以减轻其影响,在不断演变的垃圾信息数据集上仍能保持高性能。 本研究强调了微调和定制化学习策略的重要性,以有效部署LLMs进行现实世界的短信垃圾信息检测。
摘要: The increasing threat of SMS spam, driven by evolving adversarial techniques and concept drift, calls for more robust and adaptive detection methods. In this paper, we evaluate the potential of large language models (LLMs), both open-source and commercial, for SMS spam detection, comparing their performance across zero-shot, few-shot, fine-tuning, and chain-of-thought prompting approaches. Using a comprehensive dataset of SMS messages, we assess the spam detection capabilities of prominent LLMs such as GPT-4, DeepSeek, LLAMA-2, and Mixtral. Our findings reveal that while zero-shot learning provides convenience, it is unreliable for effective spam detection. Few-shot learning, particularly with carefully selected examples, improves detection but exhibits variability across models. Fine-tuning emerges as the most effective strategy, with Mixtral achieving 98.6% accuracy and a balanced false positive and false negative rate below 2%, meeting the criteria for robust spam detection. Furthermore, we explore the resilience of these models to adversarial attacks, finding that fine-tuning significantly enhances robustness against both perceptible and imperceptible manipulations. Lastly, we investigate the impact of concept drift and demonstrate that fine-tuned LLMs, especially when combined with few-shot learning, can mitigate its effects, maintaining high performance even on evolving spam datasets. This study highlights the importance of fine-tuning and tailored learning strategies to deploy LLMs effectively for real-world SMS spam detection
评论: 17页
主题: 密码学与安全 (cs.CR)
引用方式: arXiv:2501.04985 [cs.CR]
  (或者 arXiv:2501.04985v1 [cs.CR] 对于此版本)
  https://doi.org/10.48550/arXiv.2501.04985
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Muhammad Ikram [查看电子邮件]
[v1] 星期四, 2025 年 1 月 9 日 06:00:08 UTC (497 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
cs.CR
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-01
切换浏览方式为:
cs

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号