Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2507.13550

帮助 | 高级搜索

计算机科学 > 人工智能

arXiv:2507.13550 (cs)
[提交于 2025年7月17日 ]

标题: GOFAI 与生成式 AI:通过大型语言模型开发专家系统

标题: GOFAI meets Generative AI: Development of Expert Systems by means of Large Language Models

Authors:Eduardo C. Garrido-Merchán, Cristina Puente
摘要: 大规模语言模型(LLMs)的发展成功地改变了基于知识的系统,例如开放领域问答,这些系统可以自动生成大量看似连贯的信息。 然而,这些模型有几个缺点,如幻觉或自信地生成错误或不可验证的事实。 在本文中,我们介绍了一种使用LLMs以受控和透明方式开发专家系统的新方法。 通过限制领域并采用结构良好的基于提示的提取方法,我们生成了Prolog中的知识符号表示,该表示可由人类专家验证和修正。 这种方法还保证了所开发的专家系统的可解释性、可扩展性和可靠性。 通过与Claude Sonnet 3.7和GPT-4.1的定量和定性实验,我们展示了对事实和语义连贯性的强烈遵循。 我们提出了一种透明的混合解决方案,结合了LLMs的召回能力与符号系统的精确性,从而为敏感领域中的可靠AI应用奠定了基础。
摘要: The development of large language models (LLMs) has successfully transformed knowledge-based systems such as open domain question nswering, which can automatically produce vast amounts of seemingly coherent information. Yet, those models have several disadvantages like hallucinations or confident generation of incorrect or unverifiable facts. In this paper, we introduce a new approach to the development of expert systems using LLMs in a controlled and transparent way. By limiting the domain and employing a well-structured prompt-based extraction approach, we produce a symbolic representation of knowledge in Prolog, which can be validated and corrected by human experts. This approach also guarantees interpretability, scalability and reliability of the developed expert systems. Via quantitative and qualitative experiments with Claude Sonnet 3.7 and GPT-4.1, we show strong adherence to facts and semantic coherence on our generated knowledge bases. We present a transparent hybrid solution that combines the recall capacity of LLMs with the precision of symbolic systems, thereby laying the foundation for dependable AI applications in sensitive domains.
主题: 人工智能 (cs.AI) ; 计算与语言 (cs.CL); 符号计算 (cs.SC)
引用方式: arXiv:2507.13550 [cs.AI]
  (或者 arXiv:2507.13550v1 [cs.AI] 对于此版本)
  https://doi.org/10.48550/arXiv.2507.13550
通过 DataCite 发表的 arXiv DOI(待注册)

提交历史

来自: Eduardo C. Garrido-Merchán [查看电子邮件]
[v1] 星期四, 2025 年 7 月 17 日 21:57:37 UTC (1,820 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
cs.AI
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-07
切换浏览方式为:
cs
cs.CL
cs.SC

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号