计算机科学 > 信息检索
[提交于 2025年10月24日
]
标题: 生成推荐的分层优化:连接标记化和生成
标题: Bi-Level Optimization for Generative Recommendation: Bridging Tokenization and Generation
摘要: 生成推荐作为一种变革性的范式正在兴起,它直接生成推荐项,而不是依赖于匹配。 构建这样的系统通常涉及两个关键组件:(1) 优化分词器以获得合适的项目标识符,和 (2) 基于这些标识符训练推荐器。 现有方法通常将这些组件分开处理——按顺序或交替进行——忽视了它们之间的相互依赖性。 这种分离可能导致不一致:分词器在没有直接来自推荐目标指导的情况下进行训练,可能会产生次优的标识符,从而降低推荐性能。 为了解决这个问题,我们提出了BLOGER,一个用于生成推荐的双层优化框架,它在一个统一的优化过程中显式建模分词器和推荐器之间的相互依赖性。 下层使用分词序列训练推荐器,而上层则根据分词损失和推荐损失优化分词器。 我们采用元学习方法来高效解决这个双层优化问题,并引入梯度手术以减轻上层更新中的梯度冲突,从而确保项目标识符既具有信息量又与推荐对齐。 在真实世界数据集上的大量实验表明,BLOGER始终优于最先进的生成推荐方法,同时保持实际效率,没有显著的额外计算开销,有效地弥合了项目分词和自回归生成之间的差距。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.