Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2402.00388v1

帮助 | 高级搜索

计算机科学 > 机器学习

arXiv:2402.00388v1 (cs)
[提交于 2024年2月1日 ]

标题: 基于累积分布函数的一般时间点过程

标题: Cumulative Distribution Function based General Temporal Point Processes

Authors:Maolin Wang, Yu Pan, Zenglin Xu, Ruocheng Guo, Xiangyu Zhao, Wanyu Wang, Yiqi Wang, Zitao Liu, Langming Liu
摘要: 时间点过程(TPPs)在建模跨不同领域的事件序列中起着关键作用,包括社交网络和电子商务,并对推荐系统和信息检索策略的进步做出了重要贡献。通过分析用户交互和交易等事件,TPPs提供了关于行为模式的有价值见解,有助于预测未来趋势。然而,由于这些模式的复杂性,准确预测未来事件仍然是一个严峻的挑战。将神经网络与TPPs相结合,推动了先进深度TPP模型的发展。尽管这些模型在处理复杂和非线性时间数据方面表现出色,但在建模强度函数时遇到限制,在积分计算中面临计算复杂性,并且难以有效捕捉长程时间依赖关系。在本研究中,我们引入了CuFun模型,这是一种围绕累积分布函数(CDF)的新颖TPP方法。CuFun通过独特地使用单调神经网络进行CDF表示,利用过去事件作为缩放因子而脱颖而出。这一创新显著增强了模型在各种数据场景中的适应性和精度。我们的方法解决了传统TPP建模中的几个关键问题:它简化了对数似然计算,扩展了适用性,超越了预定义密度函数形式,并能够有效地捕捉长程时间模式。我们的贡献包括引入一种基于CDF的开创性TPP模型,开发了一种将过去事件信息纳入未来事件预测的方法,并通过在合成和真实世界数据集上的广泛实验验证了CuFun的有效性。
摘要: Temporal Point Processes (TPPs) hold a pivotal role in modeling event sequences across diverse domains, including social networking and e-commerce, and have significantly contributed to the advancement of recommendation systems and information retrieval strategies. Through the analysis of events such as user interactions and transactions, TPPs offer valuable insights into behavioral patterns, facilitating the prediction of future trends. However, accurately forecasting future events remains a formidable challenge due to the intricate nature of these patterns. The integration of Neural Networks with TPPs has ushered in the development of advanced deep TPP models. While these models excel at processing complex and nonlinear temporal data, they encounter limitations in modeling intensity functions, grapple with computational complexities in integral computations, and struggle to capture long-range temporal dependencies effectively. In this study, we introduce the CuFun model, representing a novel approach to TPPs that revolves around the Cumulative Distribution Function (CDF). CuFun stands out by uniquely employing a monotonic neural network for CDF representation, utilizing past events as a scaling factor. This innovation significantly bolsters the model's adaptability and precision across a wide range of data scenarios. Our approach addresses several critical issues inherent in traditional TPP modeling: it simplifies log-likelihood calculations, extends applicability beyond predefined density function forms, and adeptly captures long-range temporal patterns. Our contributions encompass the introduction of a pioneering CDF-based TPP model, the development of a methodology for incorporating past event information into future event prediction, and empirical validation of CuFun's effectiveness through extensive experimentation on synthetic and real-world datasets.
主题: 机器学习 (cs.LG) ; 人工智能 (cs.AI); 机器学习 (stat.ML)
引用方式: arXiv:2402.00388 [cs.LG]
  (或者 arXiv:2402.00388v1 [cs.LG] 对于此版本)
  https://doi.org/10.48550/arXiv.2402.00388
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Maolin Wang [查看电子邮件]
[v1] 星期四, 2024 年 2 月 1 日 07:21:30 UTC (1,285 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • TeX 源代码
查看许可
当前浏览上下文:
cs.LG
< 上一篇   |   下一篇 >
新的 | 最近的 | 2024-02
切换浏览方式为:
cs
cs.AI
stat
stat.ML

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号