计算机科学 > 信息检索
[提交于 2025年10月24日
]
标题: Pctx:用于生成推荐的个性化上下文分词
标题: Pctx: Tokenizing Personalized Context for Generative Recommendation
摘要: 生成式推荐(GR)模型将每个动作标记为几个离散的标记(称为语义ID),并自回归地生成下一个标记作为预测,表现出内存效率、可扩展性和统一检索与排序的潜力。 尽管有这些优势,现有的分词方法是静态且非个性化的。 它们通常仅从物品特征中推导语义ID,假设一个通用的物品相似性,忽略了用户特定的视角。 然而,在自回归范式下,具有相同前缀的语义ID总是获得相似的概率,因此单一的固定映射在所有用户中隐式地强制执行了一个通用的物品相似性标准。 在实际中,同一物品可能根据用户意图和偏好被不同地解释。 为了解决这个问题,我们提出了一种个性化上下文感知的分词器,在生成语义ID时结合用户的历史交互。 这种设计使得同一物品在不同的用户上下文中可以被标记为不同的语义ID,使GR模型能够捕捉多种解释标准并生成更个性化的预测。 在三个公开数据集上的实验表明,NDCG@10相比非个性化的动作标记基线提高了高达11.44%。 我们的代码可在 https://github.com/YoungZ365/Pctx 获取。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.