中文 | ENGLISH
...
分享

卢宇等:基于深度知识追踪模型的可解释性研究


 

  2020年5月,北师大高精尖中心人工智能实验室论文Towards Interpretable Deep Learning Modes for Knowledge Tracing被国际教育人工智能会议(International Conference on Artificial Intelligence in Education)接收。该论文采用可解释性算法对基于循环神经网络的深度知识追踪模型进行解释,证明了深度知识追踪模型决策的有效性,以促进其在实际教学中的应用。

 

   

  图 论文封面与内文截图

  

  知识追踪模型可以基于学习者的答题数据,估计学习者相应知识点的掌握水平,并对学习者的未来做题表现做出预测,是为学习者推荐学习资源、规划符合学习路径的基础。近年来,随着深度学习被引入知识追踪领域,知识追踪模型的性能得到了提升。但深度学习模型宛如一个黑箱,非计算机背景的人难以理解其内部工作机制,这一点极大程度上限制了深度知识追踪模型在实际教学中的运用。因此,本研究采用了一种解释深度学习模型的算法LRP(Layer-wise Relevance Propagation)对深度知识追踪模型进行解释。通过LRP计算出每一道题对最终预测结果的贡献程度,同时针对该研究开展实验,实验结果表明,LRP可在一定程度上合理解释深度知识追踪模型的决策。

  

  https://aic-fe.bnu.edu.cn/docs/20200720101603819226.pdf

  点击链接或扫描二维码阅读原文

  

  相关阅读:

  北师大高精尖中心人工智能实验室多篇论文被AIED-2020接收

  https://mp.weixin.qq.com/s/JhmyZcP4WNwLiLKGFxOlrA

 

 

  供稿:人工智能实验室

  

  

  

  

地址:北京市昌平区北沙河西三路北京师范大学昌平校园G区3号楼4-5层
©版权所有 北京师范大学未来教育高精尖创新中心
邮编:102206    电话:010-56444401、010-56444402、010-56444403(双师服务答疑专线)    E-mail:gaojingjian@bnu.edu.cn