Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2212.00888v2

帮助 | 高级搜索

计算机科学 > 人机交互

arXiv:2212.00888v2 (cs)
[提交于 2022年12月1日 (v1) ,最后修订 2022年12月11日 (此版本, v2)]

标题: 可自我解释的决策:一种以用户为中心的深度强化学习解释系统

标题: Decisions that Explain Themselves: A User-Centric Deep Reinforcement Learning Explanation System

Authors:Xiaoran Wu, Zihan Yan, Chongjie Zhang, Tongshuang Wu
摘要: 随着像自动驾驶这样的深度强化学习(RL)系统被广泛部署但仍然高度不透明,开发人员经常使用可解释的强化学习(XRL)工具来更好地理解和与深度RL代理进行交互。 然而,之前的XRL工作采用了一种技术中心的研究方法,忽视了RL开发人员对生成的解释的看法。 通过一项初步研究,我们确定了RL从业者使用XRL方法的主要目标,以及四个会扩大现有XRL方法与这些目标之间差距的陷阱。 这些陷阱包括难以访问的推理过程、不一致或难以理解的解释,以及无法推广的解释。 为了填补发现的差距,我们提出了一种基于反事实推理的解释方法,该方法可以发现RL代理推理过程的细节并生成自然语言解释。 围绕这种方法,我们构建了一个交互式XRL系统,用户可以主动探索解释和影响信息。 在一项有14名参与者的用户研究中,我们验证了与基线方法相比,开发人员使用我们的系统识别出20.9%更多的异常行为和RL代理的局限性,并且在自动驾驶任务中,使用我们的系统使最终用户在可操作性测试中的表现提高了25.1%,在StarCraft II微管理任务中提高了16.9%。
摘要: With deep reinforcement learning (RL) systems like autonomous driving being wildly deployed but remaining largely opaque, developers frequently use explainable RL (XRL) tools to better understand and work with deep RL agents. However, previous XRL works employ a techno-centric research approach, ignoring how RL developers perceive the generated explanations. Through a pilot study, we identify major goals for RL practitioners to use XRL methods and four pitfalls that widen the gap between existing XRL methods and these goals. The pitfalls include inaccessible reasoning processes, inconsistent or unintelligible explanations, and explanations that cannot be generalized. To fill the discovered gap, we propose a counterfactual-inference-based explanation method that discovers the details of the reasoning process of RL agents and generates natural language explanations. Surrounding this method, we build an interactive XRL system where users can actively explore explanations and influential information. In a user study with 14 participants, we validated that developers identified 20.9% more abnormal behaviors and limitations of RL agents with our system compared to the baseline method, and using our system helped end users improve their performance in actionability tests by 25.1% in an auto-driving task and by 16.9% in a StarCraft II micromanagement task.
主题: 人机交互 (cs.HC)
引用方式: arXiv:2212.00888 [cs.HC]
  (或者 arXiv:2212.00888v2 [cs.HC] 对于此版本)
  https://doi.org/10.48550/arXiv.2212.00888
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Xiaoran Wu [查看电子邮件]
[v1] 星期四, 2022 年 12 月 1 日 22:02:33 UTC (2,731 KB)
[v2] 星期日, 2022 年 12 月 11 日 20:01:31 UTC (2,731 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • TeX 源代码
查看许可
当前浏览上下文:
cs.HC
< 上一篇   |   下一篇 >
新的 | 最近的 | 2022-12
切换浏览方式为:
cs

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号