Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > econ > arXiv:2212.04277

帮助 | 高级搜索

经济学 > 一般经济学

arXiv:2212.04277 (econ)
[提交于 2022年12月8日 ]

标题: 测谎算法吸引的用户很少,但大大提高了指控率

标题: Lie detection algorithms attract few users but vastly increase accusation rates

Authors:Alicia von Schenk, Victor Klockmann, Jean-François Bonnefon, Iyad Rahwan, Nils Köbis
摘要: 人们不太擅长识别谎言,这可能解释了为什么他们避免指责他人说谎,因为错误指控附带社会成本——对指控者和被指控者都有影响。 我们考虑了由人工智能驱动的谎言检测算法的可用性如何可能破坏这种社会平衡。 人们是否会选择使用比人类表现更好的谎言检测算法,如果会的话,他们在指控上是否会表现出更少的克制? 我们构建了一个机器学习分类器,在谎言检测任务中的准确率(67%)显著高于人类的准确率(50%),并进行了一项有激励的谎言检测实验,测量参与者使用该算法的倾向,以及使用该算法对指控率的影响。 我们发现,仅少数人(33%)选择使用该算法,他们的指控率大幅增加(从基准条件下的25%上升到算法将某句话标记为谎言时的86%)。 他们做出更多的错误指控(增加了18个百分点),但与此同时,该群体中谎言未被检测到的概率要低得多(减少了36个百分点)。 我们考虑了人们使用谎言检测算法的个人动机以及这些算法的社会影响。
摘要: People are not very good at detecting lies, which may explain why they refrain from accusing others of lying, given the social costs attached to false accusations - both for the accuser and the accused. Here we consider how this social balance might be disrupted by the availability of lie-detection algorithms powered by Artificial Intelligence. Will people elect to use lie detection algorithms that perform better than humans, and if so, will they show less restraint in their accusations? We built a machine learning classifier whose accuracy (67\%) was significantly better than human accuracy (50\%) in a lie-detection task and conducted an incentivized lie-detection experiment in which we measured participants' propensity to use the algorithm, as well as the impact of that use on accusation rates. We find that the few people (33\%) who elect to use the algorithm drastically increase their accusation rates (from 25\% in the baseline condition up to 86% when the algorithm flags a statement as a lie). They make more false accusations (18pp increase), but at the same time, the probability of a lie remaining undetected is much lower in this group (36pp decrease). We consider individual motivations for using lie detection algorithms and the social implications of these algorithms.
评论: Alicia von Schenk 和 Victor Klockmann 共同第一作者
主题: 一般经济学 (econ.GN) ; 人工智能 (cs.AI); 计算与语言 (cs.CL)
引用方式: arXiv:2212.04277 [econ.GN]
  (或者 arXiv:2212.04277v1 [econ.GN] 对于此版本)
  https://doi.org/10.48550/arXiv.2212.04277
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Nils Köbis C [查看电子邮件]
[v1] 星期四, 2022 年 12 月 8 日 14:07:21 UTC (431 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • 其他格式
许可图标 查看许可
当前浏览上下文:
q-fin.EC
< 上一篇   |   下一篇 >
新的 | 最近的 | 2022-12
切换浏览方式为:
cs
cs.AI
cs.CL
econ
econ.GN
q-fin

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号