Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > astro-ph > arXiv:1403.0044

帮助 | 高级搜索

天体物理学 > 宇宙学与非星系天体物理学

arXiv:1403.0044 (astro-ph)
[提交于 2014年3月1日 (v1) ,最后修订 2014年6月4日 (此版本, v2)]

标题: 穷尽信息:光谱红移PDF的新型贝叶斯组合

标题: Exhausting the Information: Novel Bayesian Combination of Photometric Redshift PDFs

Authors:M. Carrasco Kind, R. J. Brunner (Department of Astronomy, University of Illinois at Urbana-Champaign)
摘要: 近年来,测光红移概率密度函数(photo-$z$ PDFs)的估算与利用变得越来越重要,目前已有各种各样的算法来计算 photo-$z$,每种方法都有其优缺点。 本文提出了一种新颖且高效的贝叶斯框架,通过最大化测光数据的信息,将不同 photo-$z$技术的结果结合起来,得到更强大和稳健的估计。 为了展示这一点,我们使用了基于随机森林的监督机器学习技术、一种基于自组织映射的无监督方法,以及一种标准模板拟合方法,但可以轻松扩展到其他现有技术。 我们使用来自 DEEP2 和 SDSS 调查的数据来探索结合这些技术预测的不同方法。 通过使用不同的性能指标,我们证明我们可以提高最终 photo-$z$估计的准确性,减少异常值的比例,并且当我们将朴素贝叶斯分类器应用于这种综合信息时,异常值的识别显著改善。 我们更稳健和准确的 photo-$z$ PDFs 将允许通过对当前和未来的测光巡天来做出更加精确的宇宙学限制。 随着我们分析的测光数据逐渐接近甚至超出可用训练数据的极限(这将是大型综合巡天望远镜的情况),这些改进至关重要。
摘要: The estimation and utilization of photometric redshift probability density functions (photo-$z$ PDFs) has become increasingly important over the last few years and currently there exist a wide variety of algorithms to compute photo-$z$'s, each with their own strengths and weaknesses. In this paper, we present a novel and efficient Bayesian framework that combines the results from different photo-$z$ techniques into a more powerful and robust estimate by maximizing the information from the photometric data. To demonstrate this we use a supervised machine learning technique based on random forest, an unsupervised method based on self-organizing maps, and a standard template fitting method but can be easily extend to other existing techniques. We use data from the DEEP2 and the SDSS surveys to explore different methods for combining the predictions from these techniques. By using different performance metrics, we demonstrate that we can improve the accuracy of our final photo-$z$ estimate over the best input technique, that the fraction of outliers is reduced, and that the identification of outliers is significantly improved when we apply a Na\"{\i}ve Bayes Classifier to this combined information. Our more robust and accurate photo-$z$ PDFs will allow even more precise cosmological constraints to be made by using current and future photometric surveys. These improvements are crucial as we move to analyze photometric data that push to or even past the limits of the available training data, which will be the case with the Large Synoptic Survey Telescope.
评论: 21页,19幅图,小的修正,已被接受在《MNRAS》发表
主题: 宇宙学与非星系天体物理学 (astro-ph.CO) ; 天体物理学的仪器与方法 (astro-ph.IM)
引用方式: arXiv:1403.0044 [astro-ph.CO]
  (或者 arXiv:1403.0044v2 [astro-ph.CO] 对于此版本)
  https://doi.org/10.48550/arXiv.1403.0044
通过 DataCite 发表的 arXiv DOI
相关 DOI: https://doi.org/10.1093/mnras/stu1098
链接到相关资源的 DOI

提交历史

来自: Matias Carrasco Kind [查看电子邮件]
[v1] 星期六, 2014 年 3 月 1 日 03:53:10 UTC (2,138 KB)
[v2] 星期三, 2014 年 6 月 4 日 13:27:09 UTC (2,164 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • TeX 源代码
查看许可
当前浏览上下文:
astro-ph.CO
< 上一篇   |   下一篇 >
新的 | 最近的 | 2014-03
切换浏览方式为:
astro-ph
astro-ph.IM

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号