1(华中师范大学人工智能教育学部 武汉 430079);2(教育大数据应用技术国家工程实验室(华中师范大学) 武汉 430079);3(西安交通大学城市学院计算机系 西安 710018);4(华中师范大学心理学院 武汉 430079) (sunjw@ccnu.edu.cn)
出版日期:
2021-12-01基金资助:
国家科技创新2030新一代人工智能重大项目(2020AAA0108804);国家自然科学基金项目(62077021,61977030,61937001,61807011);陕西省自然科学基础研究计划项目(2020JM-711);陕西省教育科学“十三五”规划课题(SGH20Y1397);西安交通大学城市学院课程思政专项研究项目(KCSZ01006);华中师范大学研究生教学改革研究项目(2020JG14)Hierarchical Attention Network Based Interpretable Knowledge Tracing
Sun Jianwen1,2, Zhou Jianpeng1,2, Liu Sannüya1,2, He Feijuan3, Tang Yun41(Faculty of Artificial Intelligence in Education, Central China Normal University, Wuhan 430079);2(National Engineering Laboratory for Educational Big Data(Central China Normal University), Wuhan 430079);3(Department of Computer, Xi’an Jiaotong University City College, Xi’an 710018);4(School of Psychology, Central China Normal University, Wuhan 430079)
Online:
2021-12-01Supported by:
This work was supported by the Major Program of National Science and Technology Innovation 2030 of China for New Generation of Artificial Intelligence (2020AAA0108804), the National Natural Science Foundation of China (62077021, 61977030, 61937001, 61807011), the Natural Science Basic Research Program of Shaanxi Province (2020JM-711), the Shaanxi Provincial Education Science Regulations “Thirteenth Five-Year” Plan Project (SGH20Y1397), the Special Research Project of Xi’an Jiaotong University City College (KCSZ01006), and the Teaching Reform Research Project for Postgraduates of Central China Normal University (2020JG14).摘要/Abstract
摘要: 认知追踪是一种数据驱动的学习主体建模技术,旨在根据学生历史答题数据预测其知识掌握状态或未来答题表现.近年来,在深度学习算法的加持下,深度认知追踪成为当前该领域的研究热点.针对深度认知追踪模型普遍存在黑箱属性,决策过程或结果缺乏可解释性,难以提供学习归因分析、错因追溯等高价值教育服务等问题,提出一种基于多层注意力网络的认知追踪模型.通过挖掘题目之间多维度、深层次的语义关联信息,建立一种包含题目元素、语义和记录等3层注意力的网络结构,利用图注意神经网络和自注意力机制等对题目进行嵌入表示、语义融合和记录检索.特别是在损失函数中引入提升模型可解释性的正则化项与权衡因子,实现对模型预测性能与可解释强度的调控.同时,定义了预测结果可解释性度量指标——保真度,实现对认知追踪模型可解释性的量化评估.最后,在6个领域基准数据集上的实验结果表明:该方法有效提升了模型的可解释性.
参考文献
相关文章 8
[1] | 窦星磊, 刘磊, 陈岳涛. 面向超导量子计算机的程序映射技术研究[J]. 计算机研究与发展, 2021, 58(9): 1856-1874. |
[2] | 张玲玲, 陈一苇, 吴文俊, 魏笔凡, 罗炫, 常晓军, 刘均. 基于对比约束的可解释小样本学习[J]. 计算机研究与发展, 2021, 58(12): 2573-2584. |
[3] | 马连韬, 张超贺, 焦贤锋, 王亚沙, 唐雯, 赵俊峰. Dr.Deep:基于医疗特征上下文学习的患者健康状态可解释评估[J]. 计算机研究与发展, 2021, 58(12): 2645-2659. |
[4] | 朱海萍, 赵成成, 刘启东, 郑庆华, 曾疆维, 田锋, 陈妍. 基于互惠性约束的可解释就业推荐方法[J]. 计算机研究与发展, 2021, 58(12): 2660-2672. |
[5] | 张炳, 文峥, 魏筱瑜, 任家东. InterDroid:面向概念漂移的可解释性Android恶意软件检测方法[J]. 计算机研究与发展, 2021, 58(11): 2456-2474. |
[6] | 陈珂锐, 孟小峰. 机器学习的可解释性[J]. 计算机研究与发展, 2020, 57(9): 1971-1986. |
[7] | 成科扬, 王宁, 师文喜, 詹永照. 深度学习可解释性研究进展[J]. 计算机研究与发展, 2020, 57(6): 1208-1217. |
[8] | 纪守领,李进锋,杜天宇,李博. 机器学习模型可解释性方法、应用与安全研究综述[J]. 计算机研究与发展, 2019, 56(10): 2071-2096. |
PDF全文下载地址:
https://crad.ict.ac.cn/CN/article/downloadArticleFile.do?attachType=PDF&id=4541