计算机科学 > 机器学习
[提交于 2025年1月10日
]
标题: 数据广度和深度对孪生神经网络模型性能的影响:三个键盘动态数据集的实验
标题: Impact of Data Breadth and Depth on Performance of Siamese Neural Network Model: Experiments with Three Keystroke Dynamic Datasets
摘要: 深度学习模型,如孪生神经网络(SNN),在捕捉行为数据中的复杂模式方面显示出巨大的潜力。 然而,数据集的广度(即受试者数量)和深度(例如每个受试者的训练样本数量)对这些模型性能的影响通常被非正式地假设,并且仍缺乏深入研究。 为此,我们使用“特征空间”和“密度”的概念进行了广泛的实验,以指导并更深入地理解数据集广度和深度对三个公开可用的击键数据集(Aalto、CMU 和 Clarkson II)的影响。 通过改变训练受试者数量、每个受试者的样本数量、每个样本中的数据量以及训练中使用的三元组数量,我们发现,当可行时,增加数据集的广度有助于训练出一个能够有效捕捉更多受试者间差异的模型。 相反,我们发现数据集深度的影响程度取决于数据集的性质。 自由文本数据集受到所有三个深度因素的影响;每个受试者的样本不足、序列长度、训练三元组和画廊样本大小,所有这些都可能导致模型训练不足。 固定文本数据集受这些因素的影响较小,因此更容易创建一个训练良好的模型。 这些发现揭示了在训练用于行为生物识别的深度学习模型时数据集广度和深度的重要性,并为设计更有效的认证系统提供了有价值的见解。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.