

清华大学 自动化系, 北京 100084
收稿日期:2021-05-11
基金项目:国家自然科学基金面上项目(61174068)
作者简介:陆思聪(1989—), 男, 博士研究生
通讯作者:李春文, 教授, E-mail:lcw@tsinghua.edu.cn
摘要:人机会话在自然语言处理乃至人工智能领域中起着重要标志性作用, 可根据使用目的划分为问答系统、任务型会话、聊天系统等, 其中聊天型会话通常具有更高的拟人需求。该文在基于长短期记忆网络的序列变换模型基础上, 通过引入话题网络显式抽取会话中的场景与话题信息, 并将这种不随语序变化的高层抽象信息扩展到会话模型结构中, 与注意力机制共同指导解码预测过程。由于难以事先获取话题信息, 话题网络被建模为非监督式学习模型, 因此训练过程需分三步进行。实验结果表明, 在恰当的训练方法和结构参数下, 该模型能够使聊天会话的质量得到明显提升。
关键词:人工智能自然语言处理人机会话机器学习话题网络
Human-machine conversation system for chatting based on scene and topic
LU Sicong, LI Chunwen


Department of Automation, Tsinghua University, Beijing 100084, China
Abstract: Human-machine conversation plays an important role in natural language processing and artificial intelligence. Human-machine conversation can be divided into the question answering system, task-oriented conversation, and chatting system according to the purpose of use. Among them, the chatting system usually requires higher personification. Based on the sequence transformation model of the long short-term memory network, the topic network is introduced in this study to explicitly extract the scene and topic information from the conversation, and this higher-level feature, which does not change with the word order, is inputted to the structure of the conversation model to guide the decoding and prediction processes together with the attention mechanism. Because of the difficulty of obtaining the topic information in advance, the topic network is modeled as an unsupervised learning structure. Thus, the training process needs to be divided into three steps. The experimental results show that the model can significantly improve the quality of the chatting system with appropriate training methods and structural parameters.
Key words: artificial intelligencenatural language processinghuman-machine conversationmachine learningtopic network
自从人工智能(artificial intelligence,AI)概念诞生以来,经过数十年时间,已形成数个蓬勃发展的分支领域,其中自然语言处理(natural language processing,NLP)即是人工智能和语言学的交叉产物。人机会话(human-machine conversation)因其综合性、复杂性均较强,成为自然语言处理乃至人工智能领域中的一个重要标志性问题,一直受到研究工作者、产业界乃至全社会的密切关注。
早期研究通常将人机会话看作一个整体过程,通过一些启发式或简单模型方法实现基于自然语言的基础人机交互,但这些原型系统的局限性较大,特别是对不同应用场景的适应性能力有限[1-2]。在此基础上,随着机器学习的发展,各种网络模型被先后提出,****们据此对人机会话系统进行了持续改进,包括更新语言模型[3-4]、引入控制机制[5-6]等。此外,由于自然语言和智能对话问题的特殊性,还有一批****在组建语料库[7]、语料预处理[8-9]、建立评价体系[10]等方面作出了相应贡献。
针对不同使用目的,人机会话系统还可在问题内容上划分为问答系统、任务型会话、聊天系统等,不同应用背景下会话系统的结构设计、语料选取往往也不尽相同。问答系统通常以成段文本为既有信息来源,期望从中总结提炼出针对指定问题的简洁答案[11-12];任务型会话则以明确给定的指令为目标,旨在准确完成人方布置的任务[13-14]。聊天型会话在人机会话领域中具有更强的拟人特性。该类会话以与人进行日常交际和有限信息交流为目的,期望与人在会话隐含的话题范围内展开相对连贯的多轮对话。之前****们关于聊天型会话的研究多集中在语言模型[15-16]、语料选取[17]等方面,而较少涉及对会话场景与话题的显式运用。
为使聊天型会话能够具有更强的拟人特性,本文将在基于长短期记忆(long short-term memory,LSTM)[18]网络的序列变换模型基础上,通过进一步引入话题网络,与注意力机制[19]一同辅助解码器预测聊天回复,并从系统结构、训练方法、结果讨论等方面展开研究。实验结果表明,当以基于BLEU(bilingual evaluation understudy)[20]和短句惩罚的综合评价指标指导适度过拟合训练,并在预测阶段采取简单贪婪搜索策略时,该方案能够在测试集上表现出最优性能。
1 人机会话基本框架1.1 序列变换模型从技术角度来看,通常把自然语言语句块建模为一个词向量序列,即将语句的分词结果逐一映射为固定长度向量,然后按原语序堆叠成一个序列。在此基础上,会话过程可看作一个具体的序列映射问题,故使用序列变换模型对其进行建模描述:将人方给定的语句看作系统输入,将机方给出的应答看作输出,使用模型拟合从输入到输出的变换关系。
对于长度未知或不可控的输入和输出序列,各需要一个循环式网络模型与其相对应。考虑到语义关联的长程依赖以及避免基础循环神经网络(recurrent neural network,RNN)的梯度消失问题,选择使用LSTM网络,且在输入端使用双向长短期记忆(bidirectional LSTM,BiLSTM)网络搭建序列变换模型,基本结构如图 1所示。
![]() |
图 1 基于LSTM的序列变换模型 |
图选项 |
其工作原理是通过编码器(输入端BiLSTM)从输入序列中提取出固定长度的语义向量,然后以该向量为输入通过解码器(输出端LSTM)得出输出序列,
1.2 长短期记忆网络作为序列变换模型的框架基础,首先考虑LSTM中的信息传播和训练问题,其单元结构如图 2a所示。对于未知长度的输入序列,LSTM的实际结构可看作沿时间方向自重复堆叠,同时可沿深度方向扩展,构成深度LSTM如图 2b所示。
![]() |
图 2 长短期记忆网络 |
图选项 |
不难看出,由于LSTM是对基础RNN的一种推广,因此其本身也是递推自迭代模型:每个网络单元以xt为外部输入,ht-1、c t-1为上一时刻的单元状态,经计算处理得出新单元状态ht、ct并传递给下一时刻,同时将ht作为当前时刻的输出传递给下一层,相当于一个三输入二输出系统。单元内部计算过程为
$\left\{\begin{array}{l}\boldsymbol f_{t}=\operatorname{Logistic}\left(\boldsymbol{W}_{\mathrm{f}, \mathrm{h}} \boldsymbol{h}_{t-1}+\boldsymbol{W}_{\mathrm{f}, \mathrm{d}} \boldsymbol{d}_{t}+\boldsymbol{b}_{\mathrm{f}}\right) ,\\\boldsymbol i_{t}=\operatorname{Logistic}\left(\boldsymbol{W}_{i, \mathrm{~h}} \boldsymbol{h}_{t-1}+\boldsymbol{W}_{\mathrm{i}, \mathrm{d}} \boldsymbol d_{t}+\boldsymbol{b}_{\mathrm{i}}\right) ,\\\boldsymbol{\gamma}_{t}=\tanh \left(\boldsymbol{W}_{\mathrm{c}, \mathrm{h}} \boldsymbol{h}_{t-1}+\boldsymbol{W}_{\mathrm{c}, \mathrm{d}} \boldsymbol{d}_{t}+\boldsymbol{b}_{\mathrm{c}}\right) ,\\\boldsymbol{c}_{t}=\boldsymbol{f}_{t}{ }^{\circ} \boldsymbol{c}_{t-1}+\boldsymbol{i}_{t} \cdot \boldsymbol{\gamma}_{t}, \\\boldsymbol{o}_{t}=\operatorname{Logistic}\left(\boldsymbol{W}_{\mathrm{o}, \mathrm{h}} \boldsymbol{h}_{t-1}+\boldsymbol{W}_{\mathrm{o}, \mathrm{d}} \boldsymbol{d}_{t}+\boldsymbol{b}_{\mathrm{o}}\right) ,\\\boldsymbol{h}_{t}=\boldsymbol{o}_{t} \circ \tanh \boldsymbol c_{t},\end{array}\right.$ | (1) |
与传统神经网络的学习方法类似,LSTM同样采用残差梯度的反向传播算法进行训练。图 2b中,残差梯度须沿时间和深度2个维度同时进行反向传播计算并叠加形成迭代优化算法。
1.3 双向长短期记忆网络由于自然语言天生具有语序特性,LSTM也具备时序性质,因此使用后者建模描述前者时可分为2种基本情形:使词向量输入顺序与LSTM时序相同或相反。2种情形下的特征提取结果均可在一定程度上表征语句的整体语义,故可将两者融合为一个整体,共同作为输入序列的语义向量,模型结构如图 3所示。
![]() |
图 3 双向长短期记忆网络 |
图选项 |
不难看出,BiLSTM适用于特征提取,而难以应用于序列生成,故在图 1的序列变换模型中,仅编码器端可做双向推广,解码器端仍为单向LSTM。进一步,从图 3中不难发现,对于BiLSTM,只需取式(2),则BiLSTM的正向传播公式与单向LSTM无异,仍遵从式(1),从而其反向传播算法也与单向LSTM相同,故此处不再专门列出。
$\left\{\begin{array}{l}\boldsymbol{h}_{\mathrm{e}, i}=\left[\boldsymbol{h}_{\mathrm{e}, i,+}^{\mathrm{T}}, \boldsymbol{h}_{\mathrm{e}, L+1-i,-}^{\mathrm{T}}\right]^{\mathrm{T}}, i=1,2, \cdots, L ; \\\boldsymbol{c}_{\mathrm{e}}=\boldsymbol{c}_{\mathrm{e}, L}=\left[\boldsymbol{c}_{\mathrm{e}, L,+}^{\mathrm{T}}, \boldsymbol{c}_{\mathrm{e}, L,-}\right]^{\mathrm{T}} ; \\\boldsymbol{h}_{\mathrm{e}}=\left[\boldsymbol{h}_{\mathrm{e}, L,+}^{\mathrm{T}}, \boldsymbol{h}_{\mathrm{e}, L,-}^{\mathrm{T}}\right]^{\mathrm{T}} ;\end{array}\right.$ | (2) |
2 序列变换附加控制信息2.1 注意力机制在编码器(BiLSTM)—解码器(LSTM)框架基础上,若采用图 1的方式直接将语义向量作为单元状态初值赋予解码器,然后依次生成输出序列,则不难发现,语义向量在解码阶段各时刻的作用是均质化的,而这与自然语言的语境关联对应特性并不相符。
因此,可引入注意力机制,使解码结果更加符合自然语言习惯。从物理意义上来看,该机制与人类行为中注意力的分配与流转相似。引入注意力机制的会话系统结构如图 4所示。
![]() |
图 4 引入注意力机制的序列变换模型 |
图选项 |
进一步,根据系统结构可知,注意力向量da,t也必须是一个定长向量,故可取
$\boldsymbol{d}_{\mathrm{a}, t}=\sum\limits_{i=1}^{L} a_{i, t} \boldsymbol{h}_{\mathrm{e}, i}=\boldsymbol{H}_{\mathrm{e}} \boldsymbol{a}_{t},$ | (3) |
$a_{i, t}=\operatorname{Softmax}_{i}\left(\boldsymbol s_{t}\right)=\frac{\mathrm{e}^{s_{i, t}}}{\sum\limits_{j=1}^{L} \mathrm{e}^{s_{j, t}}}, \quad i=1,2, \cdots, L \text {. }$ | (4) |
$s_{i, t}=\boldsymbol{w}_{\mathrm{s}}^{\mathrm{T}} \tanh \left(\boldsymbol{A}_{\mathrm{e}} \boldsymbol{h}_{\mathrm{e}, i}+\boldsymbol{A}_{\mathrm{d}} \boldsymbol{h}_{\mathrm{d} , t-1}+\boldsymbol{b}_{\mathrm{a}}\right)+b_{\mathrm{s}} .$ | (5) |
注意力机制的训练方法同样基于残差梯度的反向传播,且与序列变换模型同步进行。
2.2 场景与话题注意力机制的数学本质是对解码器输入进行扩维,并入用于指示语义局部对应关系的注意力向量,以控制解码过程达到更好的效果。不难发现,同解码器实时输出一样,额外添加的da,t也随着解码时刻t的迭代后移而不断变化,即以图 4的系统结构进行会话建模,则解码器的输入信息均为时变量。另一方面,恰好与之相对的是,在自然语言会话中,还有一些在语义层面上更加抽象、更高层次的控制因素即场景与话题,随时间变化较为缓慢,特别是在同一轮对话中通常需保持一致(可认为是时不变的)。
因此,考虑对序列变换模型的控制机制做进一步扩展:引入在同轮会话中保持不变的场景与话题向量(简称为话题向量)。为使模型结构不至过于复杂,将场景与话题建模为一个定长向量,与注意力向量一样,以连接方式并入解码器输入端,最终会话系统结构如图 5所示。
![]() |
图 5 进一步引入话题网络的序列变换模型 |
图选项 |
该扩展需从编码器输出中提取话题向量,即实现从一个定长向量到另一个定长向量的变换,故可将其建模为一个神经网络,简称为话题网络。进一步,由于绝大多数语料库均不直接提供场景与话题信息,故不宜采用“语义向量
![]() |
图 6 稀疏自编码机 |
图选项 |
SAE对应的数学优化问题为
$\min _{p} \frac{1}{N} \sum\limits_{k=1}^{N}\left\|\boldsymbol{F}\left(\boldsymbol{x}_{k} ; \boldsymbol{p}\right)-\boldsymbol{x}_{k}\right\|_{2}^{2}+p_{\mathrm{s}} \sum\limits_{j=1}^{h_{i}} E\left(\rho \| \bar{a}_{i, j}\right) .$ | (6) |
由式(6)可知,SAE的数学本质是在稀疏性约束下逼近恒等变换ce,L→ce,L(将ce,L代入诸xk),而其训练是逐层进行的:从自编码机的某一隐层截断,叠加上一个训练解码层后使最终解码输出逼近原始输入向量;然后固定从输入层到当前隐层的所有网络参数,将训练解码层后移一层,重新训练并固定下一隐层与解码层参数,以此类推。学习完成后,网络各中间隐层的激发输出即可看作从输入向量中提取到的逐层抽象化的特征表达,在本问题中则对应于从输入语义向量中提取出的话题向量。
3 实验与讨论3.1 语料库说明本文采用从剧本网(http://www.juben98.com) 和华语编剧网(https://www.1bianju.com)提供的部分剧本中提取的中文对话语料库为数据集,进行模型训练(采用90%数据)和测试评价(采用剩余10%数据)。
这些剧本创作者多为业余编剧或戏剧爱好者,因此格式并不统一,内容质量有一定差距,因此本文在人工筛选的基础上采用以下规则对原始文本数据进行规范整理:
1) 删除空白行与各种括号中的内容;
2) 删除剧本介绍等头、尾部分的非对白内容;
3) 通过模板匹配方法删除场景介绍等穿插在剧本中的辅助文本内容;
4) 删除空对白或长度超过64汉字(128字节)的对白内容;
5) 仅保留同一场景中的双人对话,删除涉及3个或3个以上角色的多人会话内容;
6) 删除少于4轮的对白,即两个角色每人至少各发言2次。
最终得到的语料库属性如表 1所示。
表 1 语料库说明与对比
语料库 | 对话数 | 平均轮次 | 平均单轮字数 |
基于剧本网、编剧网的对话语料库 | 49 113 | 6.08 | 12.41 |
康奈尔对话语料库 | 83 097 | 3.67 | 11.23 |
表选项
注意到作为参照的康奈尔对话语料库[22]平均对话轮次小于4,这是因为该数据集对“对话”的定义较为严苛,同样2个人物在连续时间上的对话过程,即使只是话题有所转变也会被切分为多段对话独立看待。不难看出,这与本文基于场景和话题流转特性的研究背景有一定出入。
3.2 模型与训练本文最终采用图 5的结构实现聊天型人机会话系统:在编码器—解码器框架基础上引入注意力机制和话题网络,以增加系统柔性和解码指向性,最终提高系统对序列变换的拟合能力。
进一步,对于上述聊天型人机会话系统,由于话题网络以自编码机为基本模型,其训练方式特别是残差来源有别于传统神经网络,故无法直接按图 5的完整结构执行反向传播算法。综合考量模型结构和训练复杂度,此处采用分步方式进行参数学习:
1) 首先按图 4的结构使用整体反向传播算法训练编码器、注意力机制和解码器参数;
2) 然后以编码器输出为样本集训练话题网络;
3) 最后,固定编码器和话题网络参数,再按图 5结构执行反向传播算法,更新注意力机制和解码器参数。
综合考虑模型复杂度、会话性能、训练过程等因素,最终选取模型结构与训练参数如下:
1) 模型结构参数:
(a) 编码器和解码器分别采用2层BiLSTM和2层LSTM;
(b) 词向量(编码器输入、解码器输出)为512维;
(c) 语义向量(编码器、解码器单元状态,话题网络输入)为512维;
(d) 注意力向量为512维;
(e) 话题网络采用4层(3隐藏层)SAE;
(f) 稀疏性参数ρ为0.03;
(g) 话题向量(话题网络输出)为128维;
2) 训练参数:
(a) 迭代学习率为0.2;
(b) BiLSTM和LSTM批处理规模均为1 024。
3.3 结果与讨论以基于剧本网和编剧网的中文会话语料库为数据集,采用公开的结巴算法[23]实现中文分词,以Word2Vec算法实现中文词汇的向量化,并按3.2节所述的分步算法对模型进行训练学习。
最终,本文采取综合指标评价模型性能:
1) 改进的BLEU评价指标:
(a) 主要参考BLEU-1至BLEU-3,以度量模型给出的预测回复与测试样本标准回复之间的措辞重复度;
(b) 引入指数短句惩罚因子,即认为长度过短的回复不是“好的聊天回复”;
2) 同时参考回复用词的信息熵,即认为由高频词汇堆砌而成的通用型回复不是“好的聊天回复”。
表 2展示的是不同训练和预测条件下各模型在测试集上的评价结果(以图 4系统结构,即3.2节中第1步训练结果为对比基准)。
表 2 不同训练和预测条件下各模型的评价结果
系统模型 | 训练终止条件 | 集束搜索 窗口宽度 | PB-1 | PB-2 | PB-3 | 词汇信息熵 |
基于话题网络的聊天型人机会话系统 | 自然收敛 | 1 | 0.005 | 0.003 | 0.002 | 4.35 |
过拟合 | 1 | 0.221 | 0.128 | 0.096 | 7.63 | |
过拟合 | 2 | 0.197 | 0.113 | 0.085 | 7.39 | |
过拟合 | 3 | 0.183 | 0.104 | 0.080 | 7.30 | |
基于注意力机制的LSTM会话模型 | 自然收敛 | 1 | 0.004 | 0.003 | 0.002 | 4.18 |
过拟合 | 1 | 0.191 | 0.109 | 0.083 | 7.58 | |
过拟合 | 2 | 0.172 | 0.096 | 0.074 | 7.33 | |
过拟合 | 3 | 0.160 | 0.088 | 0.069 | 7.26 |
表选项
其中评价指标栏PB-n表示引入指数短句惩罚的BLEU-n评价指标;训练终止条件栏的“自然收敛”是指以最大似然为训练目标时,模型在负梯度下降迭代算法下自然收敛的训练结果,而“过拟合”则是指以评价指标PB-3取到局部最大值为终止条件的训练结果,后者所需的训练步数通常不少于前者的15倍。
从表 2中不难看出,第2行PB-3指标最大,对应的系统模型与训练条件是最优选择:引入话题网络,训练时适当过拟合,并在预测阶段取输出端的集束搜索[24]窗口宽度为1。其中训练和预测条件的选取与通常机器学习问题有所不同,这是因为:基于LSTM的序列模型通常根据最大似然原理构造训练算法,所以模型往往自然收敛于以一些较短的通用型回复为预测输出的结果(这些通用型回复因“不易出错”而成为“最大似然”),但该倾向在前述综合评价体系下大多属于“不好的聊天回复”。特别是引入短句惩罚因子后,长度明显短于测试样本标准回复的PB-1、PB-2、PB-3值均会按指数降低,这就导致表 2中第1行的PB-1、PB-2、PB-3很低(小于1%),因此,以PB-3取到局部最大值为终止条件进行适当过拟合训练成为必然选择。
进一步,解码输出本质上是一个集束搜索过程,窗口宽度的选取也会对预测结果产生影响。纵观表 2第2至4行不难发现,随着窗口宽度增大,聊天评价反而有所降低,这是因为集束搜索窗口宽度增大不但意味着计算复杂度的提升,同时也意味着搜索空间的扩大,而在较大的搜索空间内模型仍倾向于依最大似然概率给出“通用型回复”。因此本文建议,在预测阶段将集束窗口宽度取为1,即采取简单贪婪搜索进行预测输出即可。
4 结论为使聊天型人机会话能够具有更强的拟人性,本文在基于LSTM的序列变换模型结构基础上,进一步引入场景与话题作为对话调控因素,与注意力机制一同辅助解码器预测聊天回复,而对模型结构的调整要求训练过程分3步进行。实验结果表明,当直接以基于BLEU-3和短句惩罚的综合评价指标指导适度过拟合训练,并在预测阶段采取简单贪婪搜索策略时,模型能够在测试集上表现出最优性能。
自然语言处理特别是聊天型人机会话方向的研究还有许多挖掘空间,如具有多轮记忆能力的会话系统、具有情感辨别能力的会话系统、具有自我人格认知的会话系统等。此外,对于场景与话题因素在会话系统中的应用,除本文提出的话题网络外,还可进一步建立基于多轮会话的话题流转模型。这些有助于提升人机会话拟人泛化能力的问题有待于后续深入研究。
参考文献
[1] | SHAWAR B A, ATWELL E S. Using corpora in machine-learning chatbot systems[J]. International Journal of Corpus Linguistics, 2005, 10(4): 489-516. DOI:10.1075/ijcl.10.4.06sha |
[2] | 易顺明, 胡振宇. 中文聊天机器人原型系统的设计[J]. 沙洲职业工学院学报, 2007, 10(2): 5-9. YI S M, HU Z Y. The prototype design for the Chinese chat robots[J]. Journal of Shazhou Professional Institute of Technology, 2007, 10(2): 5-9. (in Chinese) |
[3] | SUTSKEVER I, VINYALS O, LE Q V. Sequence to sequence learning with neural networks [EB/OL]. (2014-12-14). https://arxiv.org/abs/1409.3215v3. |
[4] | SUNDERMEYER M, NEY H, SCHLVTER R. From feedforward to recurrent LSTM neural networks for language modeling[J]. IEEE/ACM Transactions on Audio, Speech, and Language Processing, 2015, 23(3): 517-529. DOI:10.1109/TASLP.2015.2400218 |
[5] | LUONG M T, PHAM H, MANNING C D. Effective approaches to attention-based neural machine translation [EB/OL]. (2015-09-20) [2021-05-01]. https://arxiv.org/abs/1508.04025v5. |
[6] | 王红, 史金钏, 张志伟. 基于注意力机制的LSTM的语义关系抽取[J]. 计算机应用研究, 2018, 35(5): 1417-1420, 1440. WANG H, SHI J C, ZHANG Z W. Text semantic relation extraction of LSTM based on attention mechanism[J]. Application Research of Computers, 2018, 35(5): 1417-1420, 1440. DOI:10.3969/j.issn.1001-3695.2018.05.029 (in Chinese) |
[7] | NIO L, SAKTI S, NEUBIG G, et al. Conversation dialog corpora from television and movie scripts [C]//2014 17th Oriental Chapter of the International Committee for the Co-ordination and Standardization of Speech Databases and Assessment Techniques (COCOSDA). Phuket, Thailand: IEEE Press, 2014: 1-4. |
[8] | 曾小芹. 基于Python的中文结巴分词技术实现[J]. 信息与电脑(理论版), 2019, 31(18): 38-39, 42. ZENG X Q. Technology implementation of Chinese jieba segmentation based on python[J]. China Computer & Communication, 2019, 31(18): 38-39, 42. (in Chinese) |
[9] | RONG X. Word2vec parameter learning explained [EB/OL]. (2016-06-05) [2021-05-01]. https://arxiv.org/abs/1411.2738v4. |
[10] | 张伟男, 张杨子, 刘挺. 对话系统评价方法综述[J]. 中国科学: 信息科学, 2017, 47(8): 953-966. ZHANG W N, ZHANG Y Z, LIU T. Survey of evaluation methods for dialogue systems[J]. Scientia Sinica (Informationis), 2017, 47(8): 953-966. (in Chinese) |
[11] | MOLDOVAN D I, TATU M. Natural language question answering system and method utilizing multi-modal logic: US20060053000 A1 [P]. 2006-03-09. |
[12] | 邢超. 智能问答系统的设计与实现[D]. 北京: 北京交通大学, 2015. XING C. The design and implementation of intelligent question and answering system [D]. Beijing: Beijing Jiaotong University, 2015. (in Chinese) |
[13] | WEN T H, VANDYKE D, MRKSIC N, et al. A network-based end-to-end trainable task-oriented dialogue system [EB/OL]. (2017-04-24) [2021-05-01]. https://arxiv.org/abs/1604.04562v3. |
[14] | 张杰晖. 任务型对话系统的自然语言生成研究[D]. 广州: 华南理工大学, 2019. ZHANG J H. Research on natural language generation in task-based dialogue system [D]. Guangzhou: South China University of Technology, 2019. (in Chinese) |
[15] | MěKOTA O, G?KIRMAK M, LAITOCH P. End to end dialogue transformer [EB/OL]. (2020-08-24) [2021-05-01]. https://www.researchgate.net/publication/343849046_End_to_End_Dialogue_Transformer. |
[16] | THIERGART J, HUBER S, VBELLACKER T. Under- standing emails and drafting responses—An approach using GPT-3 [EB/OL]. (2021-02-15) [2021-05-01]. https://arxiv.org/abs/2102.03062v3. |
[17] | 张献涛, 张猛, 暴筱, 等. 一种提升人机交互对话语料质量与多样性的对话语料库生成方法: CN111026884A [P]. 2020-04-17. ZHANG X T, ZHANG M, BAO X, et al. Dialogue corpus generation method for improving quality and diversity of man-machine interaction dialogue corpora: CN111026884A [P]. 2020-04-17. (in Chinese) |
[18] | WIKIPEDIA. Long short-term memory [EB/OL]. (2021-03-25) [2021-05-01]. https://en.wikipedia.org/wiki/Long_short-term_memory. |
[19] | WIKIPEDIA. Attention (machine learning) [EB/OL]. (2021-02-27) [2021-05-01]. https://en.wikipedia.org/wiki/Attention_(machine_learning). |
[20] | WIKIPEDIA. BLEU [EB/OL]. (2020-11-09) [2021-05-01]. https://en.wikipedia.org/wiki/BLEU. |
[21] | WIKIPEDIA. Autoencoder [EB/OL]. (2021-03-24) [2021-05-01]. https://en.wikipedia.org/wiki/Autoencoder. |
[22] | DANESCU-NICULESCU-MIZIL C, LEE L. Chameleons in imagined conversations: A new approach to understanding coordination of linguistic style in dialogs [C]// CMCL 2011: Proceedings of the 2nd Workshop on Cognitive Modeling and Computational Linguistics. Portland, Oregon, USA: Association for Computational Linguistics, 2011: 76-87. |
[23] | GITHUB. Fxsjy/jieba [DB/OL]. (2020-01-20) [2021-05-01]. https://github.com/fxsjy/jieba. |
[24] | WIKIPEDIA. Beam search [EB/OL]. (2021-03-11) [2021-05-01]. https://en.wikipedia.org/wiki/Beam_search |