计算机科学 > 软件工程
[提交于 2025年7月23日
]
标题: 按说明使用? 用于检查已发表作品严谨性和透明度的软件工具比较
标题: Use as Directed? A Comparison of Software Tools Intended to Check Rigor and Transparency of Published Work
摘要: 可重复性危机的原因包括科学报告中缺乏标准化和透明度。 像ARRIVE和CONSORT这样的检查清单旨在提高透明度,但作者有时并不遵循这些清单,同行评审也常常无法发现缺失的项目。 为了解决这些问题,已经设计了几种自动化工具来检查不同的严谨性标准。 我们对ScreenIT小组的9个不同严谨性标准下的11种自动化工具进行了广泛的比较。 我们发现了一些标准,包括检测开放数据,在这些标准中,工具的组合显示出明显的优胜者,该工具的表现远优于其他工具。 在其他情况下,包括检测纳入和排除标准,工具的组合表现超过了任何单一工具的表现。 我们还确定了工具开发者应重点努力的关键领域,以使他们的工具尽可能有用。 最后,我们为严谨性和透明度检测工具开发的利益相关者提出了一套见解和建议。 本研究的代码和数据可在https://github.com/PeterEckmann1/tool-comparison获取。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.