删除或更新信息,请邮件至freekaoyan#163.com(#换成@)

面向方面级情感分析的交互图注意力网络模型

本站小编 Free考研考试/2022-01-03

韩虎1, 2,
吴渊航1,,,
秦晓雅1
1.兰州交通大学电子与信息工程学院 兰州 730070
2.甘肃省人工智能与图形图像工程研究中心 兰州 730070
基金项目:国家自然科学基金(62166024),国家社会科学基金(17BXW071)

详细信息
作者简介:韩虎:男,1977年生,教授,研究方向为神经网络与深度学习、数据挖掘与自然语言处理
吴渊航:男,1997年生,硕士生,研究方向为深度学习与自然语言处理
秦晓雅:女,1996年生,硕士生,研究方向为深度学习与自然语言处理
通讯作者:吴渊航  1903552800@qq.com
中图分类号:TN912

计量

文章访问数:311
HTML全文浏览量:212
PDF下载量:80
被引次数:0
出版历程

收稿日期:2021-01-11
修回日期:2021-09-27
网络出版日期:2021-10-09
刊出日期:2021-11-23

An Interactive Graph Attention Networks Model for Aspect-level Sentiment Analysis

Hu HAN1, 2,
Yuanhang WU1,,,
Xiaoya QIN1
1. School of Electronics and Information Engineering, Lanzhou Jiaotong University, Lanzhou 730070, China
2. Gansu Artificial Intelligence and Graphic Image Engineering Research Center, Lanzhou 730070, China
Funds:The National Natural Science Foundation of China (62166024), The National Social Science Foundation of China (17BXW071)


摘要
摘要:方面级情感分析目前主要采用注意力机制与传统神经网络相结合的方法对方面与上下文词进行建模。这类方法忽略了句子中方面与上下文词之间的句法依存信息及位置信息,从而导致注意力权重分配不合理。为此,该文提出一种面向方面级情感分析的交互图注意力网络模型(IGATs)。该模型首先使用双向长短期记忆网络(BiLSTM)学习句子的语义特征表示,并结合位置信息生成新的句子特征表示,然后在新生成的特征表示上构建图注意力网络以捕获句法依存信息,再通过交互注意力机制建模方面与上下文词之间的语义关系,最后利用softmax进行分类输出。在3个公开数据集上的实验结果表明,与其他现有模型相比,IGATs的准确率与宏平均F1值均得到显著提升。
关键词:自然语言处理/
方面级情感分析/
位置嵌入/
图注意力网络/
注意力机制
Abstract:At present, aspect-level sentiment analysis uses mainly the method of combining attention mechanism and traditional neural network to model aspect and contextual words.These methods ignore the syntactic dependency information and position information between aspects and contextual words in sentences, which leads to unreasonable weight allocation of attention. Therefore, an Interactive Graph ATtention (IGATs) networks model for aspect-level sentiment analysis is proposed. Bidirectional Long Short-Term Memory (BiLSTM) network is firstly used to learn the semantic feature representation of sentences. And then the position information is combined to update the feature representation, a graph attention network is constructed on the newly generated feature representation to capture syntactic dependency information. Finally, interactive attention mechanism is used to model the semantic relations between the aspect and contextual words. Experimental results on three public datasets show that the accuracy and macro average F1 value of IGATs are significantly improved compared with other existing models.
Key words:Natural language processing/
Aspect-level sentiment analysis/
Position embedding/
Graph attention network/
Attention mechanism



PDF全文下载地址:

https://jeit.ac.cn/article/exportPdf?id=e68dcc21-1d7c-49cc-a708-43f2e9e86291
相关话题/网络 信息 工程 基金 社会科学