1. 山西大学 计算机与信息技术学院, 太原 030006;
2. 山西大学 计算智能与中文信息处理教育部重点实验室, 太原 030006
收稿日期:2016-12-06
基金项目:国家自然科学基金资助项目(61573231,61632011,61672331,61432011,U1435212);国家“八六三”高技术项目(2015AA015407);山西省科技基础条件平台计划项目(2015091001-0102)
作者简介:王素格(1964-), 女, 教授。E-mail:wsg@sxu.edu.cn
摘要:为了同时挖掘商品口碑数据中所谈论的对象、对象的某个方面以及评论者对这个方面的观点,用于指导消费者消费和生产厂家对商品的改进,该文面向口碑数据提出一个无监督对象方面情感联合模型。该模型假设方面分布依赖于对象分布,情感分布依赖于方面分布和对象分布,词是采样的最小单位。在汽车口碑数据上进行了多组实验,实验结果表明:无监督对象方面情感联合模型不仅可以判别文本方面和文本情感的类别,还可以获取文本对象信息。
关键词:口碑数据联合模型情感挖掘无监督学习
Sentiment mining of commodity reputation data based on joint model
WANG Suge1,2, LI Dayu1, LI Yang1
1.School of Computer & Information Technology, Shanxi University, Taiyuan 030006, China;
2.Key Laboratory of Computational Intelligence and Chinese Information Processing of Ministry of Education, Shanxi University, Taiyuan 030006, China
Abstract: This paper presents a probabilistic graphical model to simultaneously extract objects, aspects and sentiments from commodity reputation data. The underlying assumption is that the aspect distribution depends on the object distribution, while the sentiment distribution depends on the aspect distribution. The model further assumes that words are the smallest sampling units and is fully unsupervised. Tests on car reputation data show that this model can predict the aspect and sentiment categories of commodity reviews and can simultaneously extract object information from the reviews.
Key words: commodity reputation datajoint modelsentiment miningunsupervised learning
随着电子商务的蓬勃发展,越来越多的人喜欢在微博和论坛上对商品进行评论,致使网络上存在大量商品口碑数据。口碑数据是指消费者在购买商品后,对所购商品某个具体特性的观点评述。这些口碑数据中包含很多对消费者和生产厂家有用的信息,例如“奥迪A6的空间很宽敞”,评论对象是“奥迪A6”,评论的是它的“空间”方面,其观点是“宽敞”。对于同一种商品,存在多种品牌,例如汽车,常见的品牌有“奥迪”“大众”“现代”等,可以通过“空间”“动力”“油耗”等方面来评价其中一款汽车的好坏。因此,同时从数据中挖掘出消费者关注的商品品牌、商品的方面以及对方面的观点具有重要的应用价值。
近年来,有大量基于主题模型[1-13]方法的商品评论文本挖掘的报道,但大都是文本-方面(主题)-情感-词四层模型,并没有加入对象信息,这些模型无法获取评论文本谈及的对象。在模型的依赖性上,有的假设情感分布依赖于方面分布[2-6],有的则假设方面分布依赖于情感分布[7-8]。在应用中,它们更加关注文本情感分类而忽略模型对文本方面分类的影响[9-13]。直观上,情感极性同时依赖于对象和方面,相同情感词在谈论的对象或者方面不同时表达的情感也不同,例如在谈论汽车时,“大”在“油耗大”中表达的是消极情感,在“空间大”中表达的是积极情感,因此,同时挖掘对象、方面和情感对文本观点挖掘显得尤为重要。
针对这些问题,本文在潜在Dirichlet分布(latent Dirichlet allocation, LDA)模型[1]的基础上,提出了无监督对象方面情感联合(joint object aspect sentiment, JOAS)模型。与以往的模型不同,该模型采用文本-对象-方面-情感-词五层生成式结构,并假设方面分布依赖于对象分布,情感分布依赖于方面分布和对象分布。模型采用完全无监督学习方法,并且可以同时从文本中获取对象、方面和情感信息。该JOAS模型可以用于指导消费者购买哪种品牌或者型号的商品。
1 对象方面情感联合模型在一条口碑数据中,假设只涉及一款汽车、关于这款汽车的一个方面以及消费者对这个方面发表的观点。例如:
“这个相信关注过福克斯的人都应该知道,空间是小福的弱点,后排确实有些局促。”
原有的LDA模型是文本-主题-词三层结构模型,仅有一个主题层是隐层,为了获取口碑数据中的汽车对象、方面和情感,本文在LDA模型的基础上添加对象层和情感层,假定情感标签依赖于方面标签和对象标签,方面标签依赖于对象标签,构建了对象方面情感联合模型。
1.1 JOAS模型的生成过程假定语料库C为D篇文本的集合,记为C={d1, d2, …, dD};文本d存在Nd个词,记为d=(w1, w2, …, wNd);每个词wi均是词表中的一项(词表由Ⅴ个不同的词构成:{1, 2, …, V});设T为对象的个数,J为方面的个数,K为情感极性的个数。则JOAS模型对应的文本生成过程如下所示。
步骤1??对每一篇文本d,选取一个文本-对象分布λd~Dir(η)。
步骤2??对于文本d下的对象o选取对象-方面分布θd, o~Dir(γ)。
步骤3??对于文本d对象o下的方面a选取对象-方面-情感分布πd, o, a~Dir(α)。
步骤4??对于文本d中的每一个词wi:
选取对象标签oi~Multi(λd),选取方面标签ai~Multi(θd, o),选取情感标签si~Multi(πd, o, a),选取词wi~Multi(φoi, ai, si),其中φoi, ai, si~Dir(β)为词wi在对象方面情感下的概率分布。
其中:α、β、γ、η为模型超参数, Dir()为Dirichlet分布,Multi()为多项分布。对应上述生成过程,构建JOAS模型如图 1所示。
图 1 JOAS模型 |
图选项 |
1.2 JOAS模型参数估计JOAS模型有4组多项分布参数,分别是文本-对象分布λ、文本-对象-方面分布θ、文本-对象-方面-情感分布π和对象-方面-情感-词分布φ。
1.2.1 联合概率语料库中所有词及其情感标签、方面标签、对象标签的联合概率可以分解为
$\begin{array}{*{20}{c}}{P\left( {w,s,a,o} \right) = }\\{P\left( {w\left| {s,a,o} \right.} \right)P\left( {s\left| {a,o} \right.} \right)P\left( {a\left| o \right.} \right)P\left( o \right).}\end{array}$ | (1) |
式(1) 中的P(w|s, a, o)、P(s|a, o)、P(a|o)和P(o)通过分别对φ、π、θ和λ积分可以得到
$\begin{array}{*{20}{c}}{P\left( {w\left| {s,a,o} \right.} \right) = }\\{{{\left( {\frac{{\Gamma \left( {V\beta } \right)}}{{\Gamma {{\left( \beta \right)}^V}}}} \right)}^{{\rm{TJK}}}} \cdot \prod\limits_{t = 1}^T {\prod\limits_{j = 1}^J {\prod\limits_{k = 1}^K {\frac{{\prod\limits_{v = 1}^V {\Gamma \left( {{N_{t,j,k,v}} + \beta } \right)} }}{{\Gamma \left( {{N_{t,j,k}} + V\beta } \right)}}} } } ,}\end{array}$ | (2) |
$\begin{array}{*{20}{c}}{P\left( {s\left| {a,o} \right.} \right) = }\\{{{\left( {\frac{{\Gamma \left( {K\alpha } \right)}}{{\Gamma {{\left( \alpha \right)}^K}}}} \right)}^{{\rm{DTJ}}}} \cdot \prod\limits_{d = 1}^D {\prod\limits_{t = 1}^T {\prod\limits_{j = 1}^J {\frac{{\prod\limits_{k = 1}^K {\Gamma \left( {{N_{d,t,j,k}} + \alpha } \right)} }}{{\Gamma \left( {{N_{d,t,j}} + K\alpha } \right)}}} } } ,}\end{array}$ | (3) |
$P\left( {a\left| o \right.} \right) = {\left( {\frac{{\Gamma \left( {J\gamma } \right)}}{{\Gamma {{\left( \gamma \right)}^J}}}} \right)^{{\rm{DT}}}} \cdot \prod\limits_{d = 1}^D {\prod\limits_{t = 1}^T {\frac{{\prod\limits_{j = 1}^J {\Gamma \left( {{N_{d,t,j}} + \gamma } \right)} }}{{\Gamma \left( {{N_{d,t}} + J\gamma } \right)}}} } ,$ | (4) |
$P\left( o \right) = {\left( {\frac{{\Gamma \left( {T\eta } \right)}}{{\Gamma {{\left( \eta \right)}^T}}}} \right)^{D}} \cdot \prod\limits_{d = 1}^{D} {\frac{{\prod\limits_{t = 1}^T {\Gamma \left( {{N_{d,t}} + \eta } \right)} }}{{\Gamma \left( {{N_d} + T\eta } \right)}}} .$ | (5) |
1.2.2 Gibbs采样[14]为了得到模型参数,本文用Gibbs采样算法对模型的变量oi、ai和si进行采样,利用节1.2.1所得联合概率,给定除当前词wi的对象、方面和情感标签外的标签,语料库中词wi的对象标签oi为t,方面标签ai为j,情感标签si为k的条件概率为
$\begin{array}{*{20}{c}}{p\left( {{o_i} = t,{a_i} = j,{s_i} = k\left| {{o_{\neg i}},{a_{\neg i}},{s_{\neg i}},} \right.w} \right) \propto }\\{\frac{{{{\left\{ {{N_{d,t}}} \right\}}_{\neg i}} + \eta }}{{{{\left\{ {{N_d}} \right\}}_{\neg i}} + T\eta }} \cdot \frac{{{{\left\{ {{N_{d,t,j}}} \right\}}_{\neg i}} + \gamma }}{{{{\left\{ {{N_{d,t}}} \right\}}_{\neg i}} + J\gamma }} \cdot }\\{\frac{{{{\left\{ {{N_{d,t,j,k}}} \right\}}_{\neg i}} + \alpha }}{{{{\left\{ {{N_{d,t,j}}} \right\}}_{\neg i}} + K\alpha }} \cdot \frac{{{{\left\{ {{N_{t,j,k,v}}} \right\}}_{\neg i}} + \beta }}{{{{\left\{ {{N_{t,j,k}}} \right\}}_{\neg i}} + V\beta }}.}\end{array}$ | (6) |
1.2.3 参数估计当Gibbs采样收敛后,需要根据最后文档集中所有词的对象标签、方面标签和情感标签分配情况来计算参数矩阵λ、θ、π和φ。4组多项分布参数:文本-对象分布λ、文本-对象-方面分布θ、文本-对象-方面-情感分布π和对象-方面-情感-词分布φ的估计为
${\lambda _{d,t}} = \frac{{{N_{d,t}} + \eta }}{{{N_d} + T\eta }},$ | (7) |
${\theta _{d,t,j}} = \frac{{{N_{d,t,j}} + \gamma }}{{{N_{d,t}} + J\gamma }},$ | (8) |
${\pi _{d,t,j,k}} = \frac{{{N_{d,t,j,k}} + \alpha }}{{{N_{d,t,j}} + K\alpha }},$ | (9) |
${\varphi _{t,j,k,v}} = \frac{{{N_{t,j,k,v}} + \beta }}{{{N_{t,j,k}} + V\beta }}.$ | (10) |
${o_d} = \mathop {\arg \max }\limits_t \left\{ {{\lambda _{d,t}}\left| {t \in \left[ {1,2, \cdots ,T} \right]} \right.} \right\},$ | (11) |
${a_d} = \mathop {\arg \max }\limits_j \left\{ {\sum\limits_{t = 1}^T {{\lambda _{d,t}} \cdot {\theta _{d,t,j}}\left| {j \in \left[ {1,2, \cdots ,\mathit{J}} \right]} \right.} } \right\},$ | (12) |
$\begin{array}{*{20}{c}}{{s_d} = \mathop {\arg \max }\limits_k \left\{ {\sum\limits_{t = 1}^T {\sum\limits_{j = 1}^J {{\lambda _{d,t}} \cdot {\theta _{d,t,j}} \cdot } } } \right.}\\{\left. {{\pi _{d,t,j,k}}\left| {k \in \left[ {1,2, \cdots ,K} \right]} \right.} \right\}.}\end{array}$ | (13) |
利用式(10) 中的分布φt, j, k, v可以得到在对象t方面j情感k下词v的概率估计如下:
${P_{j,v}} = \sum\limits_{t = 1}^T {\sum\limits_{k = 1}^K {{\varphi _{t,j,k,v}}} } ,$ | (14) |
${P_{j,k,v}} = \sum\limits_{t = 1}^T {{\varphi _{_{t,j,k,v}}}} .$ | (15) |
2 实验过程为了验证JOAS模型的有效性,建立如下的实验过程:
步骤1??采用ICTCLAS开源工具包对实验数据进行分词,并将分词后的文本剔除停用词;
步骤2??利用文[15]构建的汽车评价本体知识库初始化对象标签、方面标签和情感标签,这些先验知识仅在模型初始化时用到;
步骤3??根据节1.2.2的Gibbs采样算法进行采样,迭代一定次数后模型各个参数趋于稳定;
步骤4??根据式(11)—(13) 可以得到文本的对象、方面和情感标签,分别与事先人工标好的标签进行比较,计算文本分类正确率;
步骤5??根据式(14) 和(15),从汽车评论数据中抽取出概率排名在前面的<方面, 词>和<方面, 情感, 词>。
实验评价指标采用正确率Accuracy,表示如下:
${\rm{Accuracy = }}\frac{{{N_{{\rm{same}}}}}}{{{N_{{\rm{total}}}}}}.$ | (16) |
3 实验结果3.1 实验数据及预处理本文实验数据为汽车之家网(http://www.autohome.com.cn/)下载的汽车口碑数据。由于紧凑型车是当下最流行的家庭用车,其销售量在家庭用车中也最高,因此,实验选取紧凑型车中评论热度最高的前4种汽车品牌:福克斯、科鲁兹、凯越和逸动,这些品牌裸车价格约7~15万元,价格适中,购买量大,并且选取用于评价汽车的5个方面:空间、动力、油耗、舒适性和内饰。手工标注了每篇评论的极性用于测试,选取正负各3 741篇,整理共得到7 482篇评论,其中:空间1 550篇,动力1 696篇,油耗1 064篇,舒适性1 756篇,内饰1 416篇。
3.2 实验设置JOAS模型旨在同时从文本中获取对象、方面和情感信息。为了评价JOAS模型,在汽车评论数据集上进行了3组实验:模型迭代次数的确定实验,文本对象、文本方面和文本情感的分类比较实验,方面-词获取、方面-情感-词获取实验。
3.3 迭代次数的确定本文采用Gibbs采样算法进行采样,为了确定模型采样的迭代次数,将α、β、γ和η均固定为0.01,观察迭代次数对文本情感分类的影响,结果如图 2所示。
图 2 不同迭代次数下的文本情感分类正确率 |
图选项 |
可以看出,迭代次数为10~200时,分类正确率随迭代次数的增加而快速提升,当迭代次数大于200后,模型分类结果趋于稳定,这与Gibbs采样算法的特性是一致的。综合考虑程序运行时间和结果稳定性,选取模型迭代次数800,后续实验也采用此值。
3.4 不同参数下模型间实验的比较结果为了验证本文JOAS模型的有效性,将其与文[2]提出的JST模型比较。对于JOAS模型,包含4个超参数α、β、γ和η,而对比模型JST仅包含3个超参数α、β和γ。由于超参数作为模型的先验知识对结果有一定的影响,而参数的组合情况比较多,因此根据文[2],将每个参数分别设置为0.01和0.1。为了考察不同参数对模型分类的影响,根据式(11)—(13),对文本的对象、方面和情感及其联合分别进行分类实验,得出文本的对象类别、方面类别和情感标签类别及其联合的正确率。
由于JOAS模型是无监督学习方法,为了比较与有监督学习方法的差异,本文选择SVM分类器作为有监督学习方法的代表,它采用的文本特征为bag-of-words特征,并采用十折交叉验证。SVM分类器将对象、方面、情感分类视为独立无关的分类任务。JOAS模型、JST模型和SVM分类器方法的比较实验结果如表 1所示。
表 1 在不同参数下的文本对象分类、方面分类和情感分类及其联合分类正确率
模型 | 参数 | 正确率/% | |||||||||
α | β | γ | η | 对象分类 | 方面分类 | 情感分类 | <对象, 情感> | <方面, 情感> | <对象, 方面, 情感> | ||
JOAS | 0.01 | 0.01 | 0.01 | 0.01 | 69.93 | 92.80 | 81.52 | 57.15 | 76.34 | 53.81 | |
0.1 | 0.01 | 0.01 | 0.01 | 71.63 | 93.93 | 80.82 | 58.23 | 76.25 | 55.21 | ||
0.01 | 0.1 | 0.01 | 0.01 | 77.76 | 94.63 | 75.46 | 58.50 | 71.59 | 55.91 | ||
0.01 | 0.01 | 0.1 | 0.01 | 68.50 | 91.17 | 78.86 | 53.93 | 72.47 | 49.61 | ||
0.01 | 0.01 | 0.01 | 0.1 | 52.21 | 91.51 | 82.01 | 43.00 | 75.55 | 39.25 | ||
JST | 0.01 | 0.01 | 0.01 | - | - | 92.54 | 80.49 | - | 74.79 | - | |
0.1 | 0.01 | 0.01 | - | - | 89.80 | 82.41 | - | 74.06 | - | ||
0.01 | 0.1 | 0.01 | - | - | 94.79 | 79.43 | - | 75.31 | - | ||
0.01 | 0.01 | 0.1 | - | - | 93.79 | 79.46 | - | 74.61 | - | ||
SVM | - | - | - | - | 41.15 | 83.68 | 76.33 | - | - | - |
表选项
可以看出:
1) 不同的参数设置对应的模型结果不相同。
对于JOAS模型来说,当4个参数组合为(0.01, 0.1, 0.01, 0.01) 时,文本对象分类正确率和文本方面分类正确率均达到最高,分别为77.76%和94.63%,而对应的情感分类正确率为75.46%;当参数组合为(0.01, 0.01, 0.01, 0.1) 时,文本情感分类正确率达到最高的82.01%,此时,文本对象分类的正确率为52.21%,文本的方面分类正确率为91.51%。对于JST模型,参数为(0.01, 0.1, 0.01),文本方面分类达到最高94.79%,而文本情感分类为79.43%;参数为(0.1, 0.01, 0.01) 时,文本情感分类达到最高的82.41%,文本方面分类为89.80%。
2) JOAS模型与JST模型结果比较如下。
(1) 在方面分类、文本情感分类方面,两模型的结果相当。主要原因是实验选取的语料都是汽车领域的,同一领域内不同汽车品牌之间所采用的方面词或情感词之间差异不大,导致在方面分类和情感分类上模型间分类能力相当。
(2) 2个模型在文本方面分类上准确率较高,均达到90%以上,主要由于实验采用的是汽车口碑数据,对汽车某个方面的评论描述较为细致。
(3) 在<方面, 情感>联合实验中,JOAS模型略优于JST模型。另外,JOAS模型可以获得文本中的对象类别、<对象, 情感>以及<对象, 方面, 情感>,而JST模型无法获得这些结果,仅仅能获得方面类别、文本情感类别以及<方面, 情感>。因此,本文所给出的方法更适合于<对象, 情感>、<方面, 情感>以及<对象, 方面, 情感>联合识别,也体现了本模型层次性的优势。
3) JOAS模型与SVM分类器结果比较如下。
SVM分类器分类效果均低于JOAS模型。主要原因是SVM分类器忽略了对象、方面、情感之间的相互联系,而在实际语料中,情感词与所描述的方面和对象之间存在某种联系,同样,方面词与对象之间也存在某种联系,具体实例见节3.5。因此,将对象、方面、情感分类视为独立无关的分类任务使SVM分类器的性能受到影响。
3.5 基于JOAS模型的方面情感词获取利用JOAS模型(参数选用节3.4最好的结果),除了可以获得对象类别、方面类别、情感类别、<对象, 情感>、<方面, 情感>以及<对象, 方面, 情感>,还可以获得特定领域下的方面情感词,以概率由大到小排名前40的词中列举了部分方面和情感词汇,如表 2所示。
表 2 方面与情感对应的词汇表
方面 | 极性 | 词汇 |
空间 | 正 | 空间,大,后备箱,后排,满意,不错,足够,东西,够用,很大,宽敞,座椅 |
负 | 空间,后排,坐,小,放,头部,不能,局促,地方,座椅,前排,储物空间 | |
动力 | 正 | 动力,发动机,油门,快,起步,加速,超车,高速,不错,提速,推背感 |
负 | 起步,肉,动力,开,档,慢,空调,油门,踩,重,次,弱,没有,小 |
表选项
可以看出:方面情感词可以获得在特定方面下的情感词,例如,“空间”方面,在正类中有“大”“宽敞”“足够”等,负类中有“小”“局促”等;“动力”方面,在正类有“加速”“超车”“快”“推背感”等,负类中有“肉”“弱”等。对于获得的词汇,可以用于构建特定领域情感词典和情感分类等任务。
4 结论本文在LDA的基础上,拓展了五层结构,给出一个能同时挖掘商品评论数据中对象、方面及情感的生成式模型—JOAS模型。模型能够将某类商品数据结构化,同时可以获取其中的品牌、方面和情感信息,从而指导消费者和生产厂家。在汽车评论数据上进行了多组实验,实验结果表明:该模型在方面分类和情感分类任务中,分类能力与对比方法相当,而且能够同时获取对象信息,并取得较高的精确度。该模型是对每个词采样情感标签,对于否定句、转折等复合句不能很好地刻画。在下一步的工作中,将该模型与深度学习结合,构建出更加高效的对象、方面和情感的联合模型。
参考文献
[1] | Blei D M, Ng A Y, Jordan M I. Latent Dirichlet allocation[J]. Journal of Machine Learning Research, 2003, 3: 993–1022. |
[2] | Lin C, He Y. Joint sentiment/topic model for sentiment analysis[C]//Proceedings of the 18th ACM Conference on Information and Knowledge Management. New York, NY, USA:ACM, 2009:375-384. |
[3] | He Y, Lin C, Alani H. Automatically extracting polarity-bearing topics for cross-domain sentiment classification[C]//Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics:Human Language Technologies-Volume 1. Stroudsburg, PA, USA:Association for Computational Linguistics, 2011:123-131. |
[4] | Lin C, He Y, Everson R, et al. Weakly supervised joint sentiment-topic detection from text[J]. IEEE Transactions on Knowledge and Data Engineering, 2012, 24(6): 1134–1145. DOI:10.1109/TKDE.2011.48 |
[5] | Jo Y, Oh A H. Aspect and sentiment unification model for online review analysis[C]//Proceedings of the 4th ACM International Conference on Web Search and Data Mining. New York, NY, USA:ACM, 2011:815-824. |
[6] | 孙艳, 周学广, 付伟. 基于主题情感混合模型的无监督文本情感分析[J]. 北京大学学报(自然科学版), 2013, 49(1): 102–108.SUN Yan, ZHOU Xueguang, FU Wei. Unsupervised topic and sentiment unification model for sentiment analysis[J]. Acta Scientiarum Naturalium Universitatis Pekinensis, 2013, 49(1): 102–108. (in Chinese) |
[7] | Li F, Huang M, Zhu X. Sentiment analysis with global topics and local dependency[C]//Twenty-Fourth AAAI Conference on Artificial Intelligence. Hamilton, Canada:AAAI, 2010:1371-1376. |
[8] | Moghaddam S, Ester M. On the design of LDA models for aspect-based opinion mining[C]//Proceedings of the 21st ACM International Conference on Information and Knowledge Management. New York, NY, USA:ACM, 2012:803-812. |
[9] | Titov I, McDonald R T. A joint model of text and aspect ratings for sentiment summarization[C]//The 46th Annual Meeting of the Association for Computational Linguistics:Human Language Technologies. Stroudsburg, PA, USA:Association for Computational Linguistics, 2008:308-316. |
[10] | Titov I, McDonald R. Modeling online reviews with multi-grain topic models[C]//Proceedings of the 17th International Conference on World Wide Web. New York, NY, USA:ACM, 2008:111-120. |
[11] | Chen Z, Mukherjee A, Liu B. Aspect extraction with automated prior knowledge learning[C]//Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics. Stroudsburg, PA, USA:Association for Computational Linguistics, 2014:347-358. |
[12] | Wu Y, Ester M. FLAME:A probabilistic model combining aspect based opinion mining and collaborative filtering[C]//Proceedings of the Eighth ACM International Conference on Web Search and Data Mining. New York, NY, USA:ACM, 2015:199-208. |
[13] | Mcauley J, Pandey R, Leskovec J. Inferring networks of substitutable and complementary products[C]//Proceedings of the 21st ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York, NY, USA:ACM, 2015:785-794. |
[14] | Walsh B. Markov chain Monte Carlo and Gibbs sampling[J]. Notes, 2004, 91(8): 497–537. |
[15] | 冯淑芳, 王素格. 面向观点挖掘的汽车评价本体知识库的构建[J]. 计算机应用与软件, 2011, 28(5): 45–47.FENG Shufang, WANG Suge. Automobile reviews ontology knowledge base construction oriented towards opinion mining[J]. Computer Applications & Software, 2011, 28(5): 45–47. (in Chinese) |