计算机科学 > 计算与语言
[提交于 2025年7月12日
]
标题: OPENXRD:LLM/MLLM XRD问答的全面基准和增强框架
标题: OPENXRD: A Comprehensive Benchmark and Enhancement Framework for LLM/MLLM XRD Question Answering
摘要: 这项工作介绍了OPENXRD,这是一个为晶体学问答设计的开放书管道,它将文本提示与由GPT-4.5生成的简洁支持内容相结合。 与可能引发版权问题的扫描教科书不同,OPENXRD生成紧凑的、领域特定的参考内容,帮助小型模型理解X射线衍射(XRD)中的关键概念。 我们通过比较不同的视觉语言模型,包括GPT-4和基于LLaVA的框架如Mistral、LLaMA和QWEN,在封闭书(无支持材料)和开放书(有支持材料)条件下,在一个定义明确的217个专家级XRD问题集上评估了OPENXRD。 我们的实验结果表明,使用GPT-4.5生成摘要的模型在准确性方面有显著提升,尤其是那些在晶体学方面训练有限的模型。 OPENXRD利用大型模型的知识来填补晶体学中的知识空白,并表明AI生成的文本可以帮助小型模型在科学任务中更有效地推理。 虽然当前版本的OPENXRD专注于基于文本的输入,但我们还探索了未来的扩展,例如添加真实的晶体图或衍射图以在专门的材料科学背景下提高解释能力。 总体而言,OPENXRD表明专用的开放书系统在材料科学中有用,并为关键科学领域的更广泛的自然语言处理(NLP)工具提供了基础。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.