计算机科学 > 人机交互
[提交于 2022年12月1日
(v1)
,最后修订 2022年12月11日 (此版本, v2)]
标题: 可自我解释的决策:一种以用户为中心的深度强化学习解释系统
标题: Decisions that Explain Themselves: A User-Centric Deep Reinforcement Learning Explanation System
摘要: 随着像自动驾驶这样的深度强化学习(RL)系统被广泛部署但仍然高度不透明,开发人员经常使用可解释的强化学习(XRL)工具来更好地理解和与深度RL代理进行交互。 然而,之前的XRL工作采用了一种技术中心的研究方法,忽视了RL开发人员对生成的解释的看法。 通过一项初步研究,我们确定了RL从业者使用XRL方法的主要目标,以及四个会扩大现有XRL方法与这些目标之间差距的陷阱。 这些陷阱包括难以访问的推理过程、不一致或难以理解的解释,以及无法推广的解释。 为了填补发现的差距,我们提出了一种基于反事实推理的解释方法,该方法可以发现RL代理推理过程的细节并生成自然语言解释。 围绕这种方法,我们构建了一个交互式XRL系统,用户可以主动探索解释和影响信息。 在一项有14名参与者的用户研究中,我们验证了与基线方法相比,开发人员使用我们的系统识别出20.9%更多的异常行为和RL代理的局限性,并且在自动驾驶任务中,使用我们的系统使最终用户在可操作性测试中的表现提高了25.1%,在StarCraft II微管理任务中提高了16.9%。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.