Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > stat > arXiv:1211.1275v3

帮助 | 高级搜索

统计学 > 机器学习

arXiv:1211.1275v3 (stat)
[提交于 2012年11月6日 (v1) ,最后修订 2013年5月8日 (此版本, v3)]

标题: 核化贝叶斯矩阵分解

标题: Kernelized Bayesian Matrix Factorization

Authors:Mehmet Gönen, Suleiman A. Khan, Samuel Kaski
摘要: 我们扩展了核化矩阵分解,采用了完全贝叶斯处理,并且能够处理以不同核函数表示的多个辅助信息源。 核函数已经被引入到矩阵分解中,用于整合关于行和列的辅助信息(例如推荐系统中的对象和用户),这对于进行矩阵外(即冷启动)预测是必要的。 我们特别讨论了二分图推断,在这种情况下输出矩阵是二值的,但将其扩展到更一般的矩阵是直接可行的。 我们在两个关键方面改进了现有技术:(i) 核化矩阵分解问题的完全共轭概率公式使有效的变分近似成为可能,而早期方法中的完全贝叶斯处理在计算上不可行。(ii) 包括多个辅助信息源,将其作为多核学习中的不同核函数,这还进一步揭示了哪些辅助信息源是有用的。 我们的方法在两个数据集上预测药物-蛋白质相互作用时优于替代方法。然后我们展示了我们的框架还可以通过将样本和标签视为矩阵分解操作的两个领域来解决多标签学习问题。相比五种最先进的多标签学习算法,我们的算法在14个多标签分类数据集中有10个获得了最低的汉明损失值。
摘要: We extend kernelized matrix factorization with a fully Bayesian treatment and with an ability to work with multiple side information sources expressed as different kernels. Kernel functions have been introduced to matrix factorization to integrate side information about the rows and columns (e.g., objects and users in recommender systems), which is necessary for making out-of-matrix (i.e., cold start) predictions. We discuss specifically bipartite graph inference, where the output matrix is binary, but extensions to more general matrices are straightforward. We extend the state of the art in two key aspects: (i) A fully conjugate probabilistic formulation of the kernelized matrix factorization problem enables an efficient variational approximation, whereas fully Bayesian treatments are not computationally feasible in the earlier approaches. (ii) Multiple side information sources are included, treated as different kernels in multiple kernel learning that additionally reveals which side information sources are informative. Our method outperforms alternatives in predicting drug-protein interactions on two data sets. We then show that our framework can also be used for solving multilabel learning problems by considering samples and labels as the two domains where matrix factorization operates on. Our algorithm obtains the lowest Hamming loss values on 10 out of 14 multilabel classification data sets compared to five state-of-the-art multilabel learning algorithms.
评论: 《第30届国际机器学习会议 proceedings》(2013)
主题: 机器学习 (stat.ML)
引用方式: arXiv:1211.1275 [stat.ML]
  (或者 arXiv:1211.1275v3 [stat.ML] 对于此版本)
  https://doi.org/10.48550/arXiv.1211.1275
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Mehmet Gönen [查看电子邮件]
[v1] 星期二, 2012 年 11 月 6 日 15:54:07 UTC (308 KB)
[v2] 星期五, 2013 年 2 月 15 日 08:42:56 UTC (314 KB)
[v3] 星期三, 2013 年 5 月 8 日 21:02:52 UTC (86 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
stat.ML
< 上一篇   |   下一篇 >
新的 | 最近的 | 2012-11
切换浏览方式为:
stat

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号