Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2510.20260

帮助 | 高级搜索

计算机科学 > 信息检索

arXiv:2510.20260 (cs)
[提交于 2025年10月23日 ]

标题: 平衡微调与RAG:一种动态LLM推荐更新的混合策略

标题: Balancing Fine-tuning and RAG: A Hybrid Strategy for Dynamic LLM Recommendation Updates

Authors:Changping Meng, Hongyi Ling, Jianling Wang, Yifan Liu, Shuzhou Zhang, Dapeng Hong, Mingyan Gao, Onkar Dalal, Ed Chi, Lichan Hong, Haokai Lu, Ningren Han
摘要: 大型语言模型(LLMs)通过其先进的推理和规划能力增强了推荐系统。 然而,用户兴趣和内容的动态性带来了重大挑战:虽然初始微调使LLMs与领域知识和用户偏好对齐,但它无法捕捉这种实时变化,因此需要强大的更新机制。 本文研究了更新LLM驱动推荐系统的方法,重点在于持续微调与检索增强生成(RAG)之间的权衡。 以一个LLM驱动的用户兴趣探索系统为例,我们在成本、敏捷性和知识整合等维度上对这些方法进行了比较分析。 我们提出了一种混合更新策略,结合定期微调的长期知识适应性与低成本RAG的敏捷性。 我们通过在一个十亿用户平台上进行的实时A/B实验证明,这种混合方法在用户满意度方面产生了统计学上的显著提升,为维护高质量的LLM驱动推荐系统提供了一个实用且经济的框架。
摘要: Large Language Models (LLMs) empower recommendation systems through their advanced reasoning and planning capabilities. However, the dynamic nature of user interests and content poses a significant challenge: While initial fine-tuning aligns LLMs with domain knowledge and user preferences, it fails to capture such real-time changes, necessitating robust update mechanisms. This paper investigates strategies for updating LLM-powered recommenders, focusing on the trade-offs between ongoing fine-tuning and Retrieval-Augmented Generation (RAG). Using an LLM-powered user interest exploration system as a case study, we perform a comparative analysis of these methods across dimensions like cost, agility, and knowledge incorporation. We propose a hybrid update strategy that leverages the long-term knowledge adaptation of periodic fine-tuning with the agility of low-cost RAG. We demonstrate through live A/B experiments on a billion-user platform that this hybrid approach yields statistically significant improvements in user satisfaction, offering a practical and cost-effective framework for maintaining high-quality LLM-powered recommender systems.
评论: RecSys 2025 行业赛道
主题: 信息检索 (cs.IR)
引用方式: arXiv:2510.20260 [cs.IR]
  (或者 arXiv:2510.20260v1 [cs.IR] 对于此版本)
  https://doi.org/10.48550/arXiv.2510.20260
通过 DataCite 发表的 arXiv DOI(待注册)
相关 DOI: https://doi.org/10.1145/3705328.3748105
链接到相关资源的 DOI

提交历史

来自: Changping Meng [查看电子邮件]
[v1] 星期四, 2025 年 10 月 23 日 06:31:00 UTC (639 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
许可图标 查看许可
当前浏览上下文:
cs.IR
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-10
切换浏览方式为:
cs

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号