计算机科学 > 机器学习
[提交于 2025年8月25日
(v1)
,最后修订 2025年8月26日 (此版本, v2)]
标题: 遗忘作为消融:面向生成科学发现的可证伪基准
标题: Unlearning as Ablation: Toward a Falsifiable Benchmark for Generative Scientific Discovery
摘要: 关于人工智能在科学中的作用的强硬主张——从“通用人工智能将治愈所有疾病”到对发现速度大幅加快的承诺——引发了一个核心的认识论问题:大型语言模型(LLMs)是否真正生成新知识,还是仅仅重新组合记忆片段? 我们提出以“遗忘即消融”作为可证伪的构造性科学发现探测方法。 其理念是系统地移除一个目标结果及其遗忘闭包(支持性引理、改写和多跳蕴含),然后评估模型是否能仅从允许的公理和工具中重新推导出该结果。 成功表明生成能力超越回忆;失败则揭示当前的局限性。 与现有的遗忘动机——隐私、版权或安全——不同,我们的框架将其重新定位为人工智能用于科学的认识论探测。 我们概述了一个数学和算法领域的最小试点研究,以说明可行性,并勾勒出该方法如何后来扩展到物理学或化学等领域。 这是一篇立场论文:我们的贡献是概念性和方法性的,而非实证性的。 我们的目标是激发讨论,探讨有原则的消融测试如何帮助区分能够重构知识的模型和仅能检索知识的模型,以及此类探测如何指导下一代人工智能用于科学的基准测试。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.