Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:1903.12019

帮助 | 高级搜索

计算机科学 > 机器学习

arXiv:1903.12019 (cs)
[提交于 2019年3月28日 ]

标题: 多模态深度网络嵌入整合结构和属性信息

标题: Multimodal Deep Network Embedding with Integrated Structure and Attribute Information

Authors:Conghui Zheng, Li Pan, Peng Wu
摘要: 网络嵌入是学习网络中节点的低维表示的过程,同时保留节点特征。 现有研究仅利用网络结构信息并专注于保留结构特征。 然而,现实网络中的节点通常具有丰富的属性,提供额外的语义信息。 已经证明,结构特征和属性特征对于网络分析任务都很重要。 为了保留这两种特征,我们研究了整合结构和属性信息以进行网络嵌入的问题,并提出了一种多模态深度网络嵌入(MDNE)方法。 MDNE 使用由多个非线性函数层组成的深度模型来捕捉非线性网络结构以及结构和属性之间的复杂交互。 由于结构和属性是两种不同类型的信息,采用多模态学习方法对其进行预处理,以帮助模型更好地捕捉节点结构和属性信息之间的相关性。 我们在损失函数中同时使用结构接近性和属性接近性来保留各自的特征,表示通过最小化损失函数获得。 在四个真实数据集上的大量实验结果表明,所提出的方法在各种任务上显著优于基线方法,这证明了我们方法的有效性和通用性。
摘要: Network embedding is the process of learning low-dimensional representations for nodes in a network, while preserving node features. Existing studies only leverage network structure information and focus on preserving structural features. However, nodes in real-world networks often have a rich set of attributes providing extra semantic information. It has been demonstrated that both structural and attribute features are important for network analysis tasks. To preserve both features, we investigate the problem of integrating structure and attribute information to perform network embedding and propose a Multimodal Deep Network Embedding (MDNE) method. MDNE captures the non-linear network structures and the complex interactions among structures and attributes, using a deep model consisting of multiple layers of non-linear functions. Since structures and attributes are two different types of information, a multimodal learning method is adopted to pre-process them and help the model to better capture the correlations between node structure and attribute information. We employ both structural proximity and attribute proximity in the loss function to preserve the respective features and the representations are obtained by minimizing the loss function. Results of extensive experiments on four real-world datasets show that the proposed method performs significantly better than baselines on a variety of tasks, which demonstrate the effectiveness and generality of our method.
评论: 15页,10图
主题: 机器学习 (cs.LG) ; 机器学习 (stat.ML)
引用方式: arXiv:1903.12019 [cs.LG]
  (或者 arXiv:1903.12019v1 [cs.LG] 对于此版本)
  https://doi.org/10.48550/arXiv.1903.12019
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Conghui Zheng [查看电子邮件]
[v1] 星期四, 2019 年 3 月 28 日 14:47:33 UTC (2,843 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
cs.LG
< 上一篇   |   下一篇 >
新的 | 最近的 | 2019-03
切换浏览方式为:
cs
stat
stat.ML

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号