计算机科学 > 计算机与社会
[提交于 2025年7月14日
]
标题: 探索用户对使用通用大语言模型聊天机器人进行心理健康治疗的安全性和隐私态度及关注点
标题: Exploring User Security and Privacy Attitudes and Concerns Toward the Use of General-Purpose LLM Chatbots for Mental Health
摘要: 越来越多的人依赖于大型语言模型(LLM)支持的对话代理来获得情感支持。 尽管之前的研究已经探讨了专门用于心理健康目的的聊天机器人在隐私和安全方面的问题,但这些聊天机器人大多是“基于规则”的产品,没有利用生成式人工智能。 目前缺乏实证研究来衡量用户在使用通用型LLM支持的聊天机器人来管理和改善心理健康时的隐私和安全担忧、态度和期望。 通过与美国参与者的21次半结构化访谈,我们发现了关键的误解和普遍的风险意识不足。 参与者将LLM表现出的人类般的共情与人类般的责任混为一谈,并错误地认为他们与这些聊天机器人的互动受到与向持牌治疗师披露信息相同的法规(例如HIPAA)的保护。 我们引入了“无形脆弱性”的概念,即与更具体的个人信息(例如财务或位置数据)相比,情感或心理披露被低估了。 为了解决这个问题,我们提出了建议,以更有效地保护用户在使用通用型LLM支持的聊天机器人时的心理健康披露。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.