经济学 > 一般经济学
[提交于 2025年3月7日
]
标题: 特定领域大型语言模型的最大幻觉标准
标题: Maximum Hallucination Standards for Domain-Specific Large Language Models
摘要: 大型语言模型(LLMs)常常生成不准确但听起来可信的内容,这被称为幻觉。 这种LLMs的固有特性带来了重大风险,尤其是在关键领域。 我将LLMs视为一类新的工程产品,将幻觉视为产品属性。 我证明了在LLMs幻觉和错误信息外部性认知不完善的情况下,当LLMs幻觉的最大可接受水平根据两个领域特定因素变化时,净福利会提高:对减少LLMs幻觉的支付意愿以及与错误信息相关的边际损害。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.