计算机科学 > 人机交互
[提交于 2025年9月14日
]
标题: 通过行为分析检测在线考试中的AI辅助作弊
标题: Detecting AI-Assisted Cheating in Online Exams through Behavior Analytics
摘要: 人工智能辅助作弊在在线考试的背景下已成为一个重大威胁。先进的浏览器扩展现在可以使大型语言模型(LLMs)在几秒钟内回答在线考试中提出的问题,从而危及这些评估的安全性。在本研究中,使用聚类方法分析了在监督的面对面考试中,52名学生在在线考试平台上的行为,目的是识别可能与作弊相关的可疑行为的学生群体。此外,还比较了不同聚类中的学生的考试成绩。本研究中定义的可疑考试行为包括在问题区域选择文本、右键点击和失去对考试页面的焦点。提取了每个学生在考试期间执行这些行为的总频率,并采用了k均值聚类进行分析。研究结果表明,学生根据其可疑行为被分为六个集群。发现六个集群中的四个集群的学生,约占总样本的33%,以不同水平表现出可疑行为。当比较这些学生的考试成绩时,发现参与可疑行为的学生平均得分比没有参与的学生高出30-40分。尽管需要进一步的研究来验证这些发现,但这项初步研究为使用行为分析检测在线考试中的人工智能辅助作弊提供了重要的见解。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.