Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > astro-ph > arXiv:1808.00011

帮助 | 高级搜索

天体物理学 > 天体物理学的仪器与方法

arXiv:1808.00011 (astro-ph)
[提交于 2018年7月31日 ]

标题: 利用循环神经网络和卷积神经网络分析强引力透镜的干涉观测结果

标题: Analyzing interferometric observations of strong gravitational lenses with recurrent and convolutional neural networks

Authors:Warren R. Morningstar, Yashar D. Hezaveh, Laurence Perreault Levasseur, Roger D. Blandford, Philip J. Marshall, Patrick Putzky, Risa H. Wechsler
摘要: 我们使用卷积神经网络(CNNs)和循环神经网络(RNNs)来估计强引力透镜的参数,这些参数是从干涉测量观测中获取的。我们探索了多种策略,并发现当从图像中去除脏束效应时,效果最佳,这通过基于RNN的结构执行去卷积后进行参数估计。为此,我们使用了Putzky & Welling(2017)中引入的循环推理机(RIM)。这为传统的CLEAN算法提供了一个快速且自动化的替代方案。我们利用伯努利分布的变分推理方法获得估计参数的不确定性。我们用模拟测试数据集以及五个ALMA强透镜观测数据来测试网络性能。对于观测到的ALMA数据,我们将我们的估计值与最大似然透镜建模方法得到的值进行比较,该方法在可见度空间中运行,并发现结果一致。我们表明,通过结合执行图像去卷积的RNN结构和执行透镜分析的CNN结构,我们可以高精度地估计透镜参数,其不确定性比最大似然方法高出不到两倍。包括由RIM执行的去卷积程序,在单个GPU上一次评估大约需要一秒钟,相比uv平面上的最大似然透镜建模,分析速度提高了六个数量级,而使用的计算资源减少了八个数量级。我们得出结论,这是一种很有前景的方法,可用于当前设施(如ALMA、JVLA)和未来大型干涉测量天文台(如SKA)的毫米波和厘米波干涉数据的分析,因为在uv平面上进行分析可能困难或不可行。
摘要: We use convolutional neural networks (CNNs) and recurrent neural networks (RNNs) to estimate the parameters of strong gravitational lenses from interferometric observations. We explore multiple strategies and find that the best results are obtained when the effects of the dirty beam are first removed from the images with a deconvolution performed with an RNN-based structure before estimating the parameters. For this purpose, we use the recurrent inference machine (RIM) introduced in Putzky & Welling (2017). This provides a fast and automated alternative to the traditional CLEAN algorithm. We obtain the uncertainties of the estimated parameters using variational inference with Bernoulli distributions. We test the performance of the networks with a simulated test dataset as well as with five ALMA observations of strong lenses. For the observed ALMA data we compare our estimates with values obtained from a maximum-likelihood lens modeling method which operates in the visibility space and find consistent results. We show that we can estimate the lensing parameters with high accuracy using a combination of an RNN structure performing image deconvolution and a CNN performing lensing analysis, with uncertainties less than a factor of two higher than those achieved with maximum-likelihood methods. Including the deconvolution procedure performed by RIM, a single evaluation can be done in about a second on a single GPU, providing a more than six orders of magnitude increase in analysis speed while using about eight orders of magnitude less computational resources compared to maximum-likelihood lens modeling in the uv-plane. We conclude that this is a promising method for the analysis of mm and cm interferometric data from current facilities (e.g., ALMA, JVLA) and future large interferometric observatories (e.g., SKA), where an analysis in the uv-plane could be difficult or unfeasible.
评论: 投稿至《天体物理学杂志》
主题: 天体物理学的仪器与方法 (astro-ph.IM) ; 宇宙学与非星系天体物理学 (astro-ph.CO)
引用方式: arXiv:1808.00011 [astro-ph.IM]
  (或者 arXiv:1808.00011v1 [astro-ph.IM] 对于此版本)
  https://doi.org/10.48550/arXiv.1808.00011
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Warren Morningstar [查看电子邮件]
[v1] 星期二, 2018 年 7 月 31 日 18:00:42 UTC (2,270 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
astro-ph.IM
< 上一篇   |   下一篇 >
新的 | 最近的 | 2018-08
切换浏览方式为:
astro-ph
astro-ph.CO

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号