...
分享

代表成果 | A Generic Interpreting Method for Knowledge Tracing Models:一种知识追踪模型的通用解释方法

浏览次数:           文章来源:人工智能实验室           发布时间:2022-05-30



  2022年4月,北京师范大学未来教育高精尖创新中心人工智能实验室论文A Generic Interpreting Method for Knowledge Tracing Models被第23届国际教育人工智能会议(23rd International Conference on Artificial Intelligence in Education, AIED 2022)Research Track接收。该论文将可解释人工智能领域中的通用方法(Deep SHAP)引入知识追踪领域,有效解释了基于不同神经网络的知识追踪模型,以期促进基于深度学习技术的知识追踪模型在实际教学中的应用。

 

  

  图 文章部分内容截图

 

  知识追踪指基于学习者作答记录、利用机器学习技术,对学习者知识掌握程度进行动态估计,并预测学习者未来作答表现的过程。随着深度学习技术的引入,知识追踪领域产生了越来越多性能优越的模型。但该类模型的决策过程不透明,无法为用户提供关于决策结果的清晰解释。因此,人工智能实验室团队之前尝试了使用可解释人工智能领域中的LRP方法对基于循环神经网络的知识追踪模型进行解释。然而LRP方法依赖于模型结构,无法轻易迁移到基于其它神经网络的知识追踪模型。为了克服这一缺点,本研究将通用的解释方法Deep SHAP引入知识追踪领域,对多个基于不同神经网络的知识追踪模型进行解释。实验结果表明,Deep SHAP可正确识别出对学习者知识掌握程度重要的作答记录。同时,解释结果还揭示出,基于深度学习的知识追踪模型在预测知识掌握程度时,更注重学习者在相关知识点题目上近期的表现。

  

  相关阅读:

  北师大高精尖中心人工智能实验室多篇论文被AIED-2022接收

  https://mp.weixin.qq.com/s/qUgIKXSIXV-o62ULr2_x-w

  

地址:北京市昌平区北沙河西三路北京师范大学昌平校园G区3号楼4-5层
©版权所有 北京师范大学未来教育高精尖创新中心
邮编:102206    电话:010-56444401、010-56444402、010-56444403(双师服务答疑专线)    E-mail:gaojingjian@bnu.edu.cn    国内合作邮箱:gjjdwhz@bnu.edu.cn