计算机科学 > 机器学习
[提交于 2020年3月12日
]
标题: 后估计平滑:利用辅助信息学习的简单基线
标题: Post-Estimation Smoothing: A Simple Baseline for Learning with Side Information
摘要: 观测数据通常伴随着自然的结构索引,如时间戳或地理位置,这些对预测任务是有意义的,但常常被丢弃。 我们利用语义上有意义的索引数据,同时确保对可能无信息或具有误导性的索引具有鲁棒性。 我们提出一种后估计平滑算子,作为一种快速有效的方法,将结构索引数据纳入预测中。 由于平滑步骤与原始预测器分离,它适用于广泛的机器学习任务,无需重新训练模型。 我们的理论分析详细说明了后估计平滑在何种简单条件下可以提高准确率。 我们在大规模时空数据集上的实验突显了后估计平滑在实际中的速度和准确性。 这些结果共同揭示了一种新的方法来考虑和整合索引变量的自然结构在机器学习中。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.