具有选择性局部注意力和前序信息解码器的代码生成模型
梁婉莹1,2, 朱佳1,2,?, 吴志杰1,2, 颜志文1,2, 汤庸1,2, 黄晋1,2, 余伟浩1,2 1. 华南师范大学计算机学院, 广州 5106312. 广州市大数据智能教育重点实验室, 广州 510631收稿日期:
2020-06-08修回日期:
2020-08-08出版日期:
2021-01-20基金资助:
国家自然科学基金(61877020, U1811263, 61772211)、广东省重点领域研发计划(2018B010109002)、广州市科学技术计划项目(201904010393)和广州市大数据智能教育重点实验室(201905010009)资助
Syntax-based Code Generation Model with Selective Local Attentionand Pre-order Information LSTM Decoder
LIANG Wanying1,2, ZHU Jia1,2,?, WU Zhijie1,2, YAN Zhiwen1,2, TANG Yong1,2,HUANG Jin1,2, YU Weihao1,2#br# 1. School of Computer, South China Normal University, Guangzhou 5106312. Guangzhou Key Laboratory of Big Data and Intelligent Education, Guangzhou 510631Received:
2020-06-08Revised:
2020-08-08Published:
2021-01-20可视化
0复制本文网址
1. 探讨2016版国际胰瘘研究小组定义和分级系统对胰腺术后患者胰瘘分级的影响.PDF(500KB)
-->
摘要/Abstract
摘要: 提出一种基于语法的代码生成模型, 该模型具有选择性局部注意力和包含前序信息的长短期记忆(LSTM)神经网络解码器, 通过更改上下文向量的计算范围, 并在解码过程中融合更多的前序信息, 增强单词之间的相关性。在Hearthstone和Django两个数据集上进行的代码生成实验证实了所提模型的有效性, 与最新的模型相比, 所提模型不仅表现出更出色的准确率和双语评估学习成绩, 还可以使计算工作量最小化。
引用本文
梁婉莹, 朱佳, 吴志杰, 颜志文, 汤庸, 黄晋, 余伟浩. 具有选择性局部注意力和前序信息解码器的代码生成模型[J]. 北京大学学报自然科学版, 2021, 57(1): 45-52.
LIANG Wanying, ZHU Jia, WU Zhijie, YAN Zhiwen, TANG Yong, HUANG Jin, YU Weihao. Syntax-based Code Generation Model with Selective Local Attentionand Pre-order Information LSTM Decoder[J]. Acta Scientiarum Naturalium Universitatis Pekinensis, 2021, 57(1): 45-52.
PDF全文下载地址:
http://xbna.pku.edu.cn/CN/article/downloadArticleFile.do?attachType=PDF&id=3566