统计学 > 应用
[提交于 2008年5月19日
]
标题: 大学生在开放性任务中手动生成和机器生成评分的特征
标题: Characteristics of hand and machine-assigned scores to college students' answers to open-ended tasks
摘要: 高等教育中的学习评估是政策制定者、教育工作者、家长和学生关注的重要问题。 适当进行评估可能需要在评估系统中包括构造性回答测试。 我们研究了在大规模使用开放性测量方法时,评分成本和其他问题(例如处理时间与读者间一致性)是否可以通过机器评分来解决。 对来自14所学院的1359名学生的分析发现,两名人类评分者在对三种类型开放性问题的回答评分上高度一致。 这些评分者给出的分数也与计算机评分高度一致。 机器评分与SAT分数、大学成绩及其他指标的相关性与人工评分的相关性相当。 机器评分并未扩大不同种族/民族或性别群体之间的平均分数差异。 我们的研究结果表明,通过提供一种快速、准确且经济的评分方式,机器评分可以促进在大规模测试项目中使用开放性问题。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.