上下文感知的注意力集中的知识追踪
ABSTRACT 摘要
知识追踪(KT)指的是根据学习者过去在教育应用中的表现来预测其未来表现的问题。使用灵活的深度神经网络模型的 KT 的最新发展擅长于这一任务。然而,这些模式的可解释性往往有限,因此不足以满足个性化学习的需要。个性化学习需要使用可解释的反馈和可操作的建议来帮助学习者获得更好的学习结果。在本文中,我们提出了注意力知识追踪(AKT),它将灵活的基于注意力的神经网络模型与一系列受认知和心理测量模型启发的新颖的、可解释的模型组件相结合。AKT 使用了一种新的单调注意机制,将学习者未来对评估问题的反应与他们过去的反应联系起来;除了问题之间的相似性外,还使用指数衰减和上下文感知的相对距离度量来计算注意力权重。此外,我们使用 Rasch 模型来规则化概念和问题嵌入,这些嵌入能够在不使用过多参数的情况下捕捉同一概念上问题之间的个体差异。我们在几个真实的基准数据集上进行了实验,结果表明,AKT 在预测未来学习者的反应方面优于现有的 KT 方法(在某些情况下 AUC 高达 6%)。我们还进行了几个案例研究,表明 AKT 表现出极好的可解释性,因此在现实世界的教育环境中具有自动反馈和个性化的潜力。