高能物理 - 现象学
[提交于 2024年8月21日
]
标题: 闭包测试MSHT PDFs并与神经网络方法进行首次直接比较
标题: Closure Testing the MSHT PDFs and a First Direct Comparison to the Neural Net Approach
摘要: 我们对固定参数化(MSHT)方法的PDF拟合进行了首次全球闭合测试,提供了一个简要概述。 我们发现,默认的MSHT20参数化可以在这种闭合测试中很好地再现输入集的特征,其误差在教科书不确定性范围内。 这提供了强有力的证据,表明在MSHT20拟合中参数化的不灵活性在数据区域并不是一个显著问题。 我们还首次进行了两个全局PDF拟合之间的完全一对一比较,即MSHT和NNPDF,其中唯一的不同之处被保证是由于拟合方法的不同。 为了实现这一点,我们使用MSHT参数化对NNPDF4.0的数据和理论输入进行了拟合。 我们发现,与中心的NNPDF4.0拟合相比,这种拟合质量有明显但适度的改善,并且这种差异在PDF和基准截面层面仍然存在。 如果应用教科书的$T^2=1$容差,NNPDF4.0的不确定性大致与MSHT结果一致,但如果应用典型的MSHT20拟合容差,则会显著更小。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.