Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:1812.08933

帮助 | 高级搜索

计算机科学 > 社会与信息网络

arXiv:1812.08933 (cs)
[提交于 2018年12月21日 ]

标题: 基于神经扩散模型的微观级联预测

标题: Neural Diffusion Model for Microscopic Cascade Prediction

Authors:Cheng Yang, Maosong Sun, Haoran Liu, Shiyi Han, Zhiyuan Liu, Huanbo Luan
摘要: 信息扩散或级联的预测在过去十年中引起了广泛关注。 大多数级联预测工作旨在预测级联级别的宏观属性,例如级联的最终规模。 现有的微观级联预测模型专注于用户级别的建模,要么对用户如何被级联感染做出强烈假设,要么仅限于“谁感染了谁”信息明确标记的特定场景。 这些强假设简化了复杂的扩散机制,并阻碍了这些模型更好地拟合现实世界的级联数据。 此外,专注于特定场景的方法无法推广到扩散图未被观察到的一般情况。 为克服之前工作的缺点,我们提出了一个神经扩散模型(NDM),用于一般的微观级联预测。 NDM做出了较宽松的假设,并采用了包括注意力机制和卷积网络在内的深度学习技术进行级联建模。 这两方面的优势使我们的模型能够超越之前方法的限制,更好地拟合扩散数据并推广到未见过的级联。 在四个现实级联数据集上的扩散预测任务实验结果表明,我们的模型在F1分数方面相对于最佳基线可以实现高达26%的相对改进。
摘要: The prediction of information diffusion or cascade has attracted much attention over the last decade. Most cascade prediction works target on predicting cascade-level macroscopic properties such as the final size of a cascade. Existing microscopic cascade prediction models which focus on user-level modeling either make strong assumptions on how a user gets infected by a cascade or limit themselves to a specific scenario where "who infected whom" information is explicitly labeled. The strong assumptions oversimplify the complex diffusion mechanism and prevent these models from better fitting real-world cascade data. Also, the methods which focus on specific scenarios cannot be generalized to a general setting where the diffusion graph is unobserved. To overcome the drawbacks of previous works, we propose a Neural Diffusion Model (NDM) for general microscopic cascade prediction. NDM makes relaxed assumptions and employs deep learning techniques including attention mechanism and convolutional network for cascade modeling. Both advantages enable our model to go beyond the limitations of previous methods, better fit the diffusion data and generalize to unseen cascades. Experimental results on diffusion prediction task over four realistic cascade datasets show that our model can achieve a relative improvement up to 26% against the best performing baseline in terms of F1 score.
评论: 12页
主题: 社会与信息网络 (cs.SI) ; 物理与社会 (physics.soc-ph)
引用方式: arXiv:1812.08933 [cs.SI]
  (或者 arXiv:1812.08933v1 [cs.SI] 对于此版本)
  https://doi.org/10.48550/arXiv.1812.08933
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Cheng Yang [查看电子邮件]
[v1] 星期五, 2018 年 12 月 21 日 03:56:59 UTC (2,384 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
cs.SI
< 上一篇   |   下一篇 >
新的 | 最近的 | 2018-12
切换浏览方式为:
cs
physics
physics.soc-ph

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号