删除或更新信息,请邮件至freekaoyan#163.com(#换成@)

基于类重叠度欠采样的不平衡模糊多类支持向量机

本站小编 Free考研考试/2021-12-25

吴园园, 申立勇
中国科学院大学数学科学学院, 北京 100049
2017年05月02日 收稿; 2017年06月02日 收修改稿
基金项目: 湖北省协同创新中心开放课题(JD20150402)资助
通信作者: 申立勇, E-mail:lyshen@ucas.ac.cn

摘要: 传统的欠采样方法容易丢失重要的样本信息,且其实验结果的稳定性较差。针对上述问题,提出一种基于类重叠度欠采样的不平衡数据模糊多类支持向量机算法。该算法首先采用LOF局部离群点因子和箱线图的方法清洗训练数据集中的噪声样本,然后根据类重叠度抽取对分类起关键作用的支持向量,并且将代表每个样本点重要程度的类重叠度作为隶属度值,构造模糊多类支持向量机。实验结果表明,该算法克服了随机欠采样的支持向量机容易丢失重要样本信息和实验结果不稳定的缺点,且很好地提升了支持向量机在不平衡且含噪声的数据集上的分类精度,并保持较高的计算效率。
关键词: 支持向量机模糊多类支持向量机噪声不平衡数据类重叠度
Imbalanced fuzzy multiclass support vector machine algorithm based on class-overlap degree undersampling
WU Yuanyuan, SHEN Liyong
School of Mathematical Sciences, University of Chinese Academy of Sciences, Beijing 100049, China


Abstract: Undersampling is a commonly-used method for data reconstruction. This method is used to solve the problem of imbalanced data classification. However, the traditional undersampling method often loses important sample information, and lacks stabilities of experimental results. To settle these two problems, this paper proposes an imbalanced fuzzy multiclass support vector machine algorithm based on class-overlap degree undersampling. This algorithm combines LOF local outlier factor and box-whisker plot to delete noise samples in the training datasets, then extracts support vectors based on class-overlap degree. Finally, the class-overlap degree of each sample is set as the membership value of this sample, and the fuzzy multiclass support vector machine is constructed. Experimental results show that our algorithm overcomes the disadvantages that the support vector machine with random undersampling often loses the important sample information and the unstabilities of experimental results. In addition, our algorithm improves the classification accuracy of support vector machine in imbalanced and noisy datasets.
Key words: support vector machinefuzzy multiclass support vector machinenoiseimbalanced datasetsclass-overlap degree
支持向量机作为一个经典的分类方法,在20世纪90年代中期由Cortes和Vapnik[1]在统计学习理论的基础上提出。支持向量机具有很强的泛化能力,能较好地解决局部极小、过学习和维数灾难等传统机器学习方法中存在的问题[2]。尽管在很多方面,支持向量机都具有其他学习方法不可比拟的优势,但是它也存在局限性,例如抗躁性差[3]、对不平衡数据分类敏感[4]等。传统支持向量机等同地对待所有训练样本点,并赋予它们相同的权值,但是真实数据中经常含有噪点,不同的训练样本点对分类面的作用也是不同的,如若不将重要训练样本与噪点区分开来,则最终得到的分类面也往往不是真正的最优分类面,出现“过学习”现象。针对这种情况,研究者提出模糊支持向量机(FSVM)[5-7],根据不同训练样本对分类面的作用,赋予其不同的模糊隶属度(即权值),分配给重要样本更大的隶属度值,分配给噪点很小的隶属度值,以减少它们对分类结果的影响,增加算法的抗噪能力。
虽然模糊支持向量机降低了噪点对分类结果的影响,很好地提高了分类器的性能,但其对于不平衡数据分类问题依然敏感。当数据不平衡时,支持向量机的分类效果不佳,容易将绝大多数的少数类分类为多数类,导致少数类的分类精度很低。然而,在许多实际应用中,相比于多数类,少数类提供的信息往往更加重要,比如在医疗检测,如果将一个病人检测为健康人,从而耽误了病人的就医时间,则会导致非常严重的后果。因此,少数类的分类精度低是很不理想的结果。为解决这一问题,国内外****进行了大量研究。其中,欠采样[8]就是一种解决不平衡数据分类问题的有效方法。然而,常用的随机欠采样方法由于其自身的随机性和盲目性,容易造成重要样本信息的丢失,影响分类效果,且分类稳定性较差。
针对支持向量机在不平衡数据集上分类效果不理想和算法容易受训练数据集中的噪声影响等问题,本文提出一种基于类重叠度欠采样的不平衡模糊多类支持向量机。首先通过LOF局部离群点因子[9]和箱线图[10]的方法删除训练数据集中的噪声样本,然后设置合适的采样数目,根据改进的类重叠度对去除噪声样本后的数据集欠采样,抽取对分类起关键作用的支持向量,最大限度地维持原有的数据分布信息,并且降低数据集的不平衡比例,最后将代表每个样本点重要程度的类重叠度作为隶属度值,构造模糊多类支持向量机。实验结果表明,该算法能够在保证良好的分类精度的同时,缩减运行时间,且其克服了随机欠采样方法容易丢失重要样本信息和分类结果不稳定的缺点。
1 基于重采样的不平衡数据学习方法目前,针对不平衡数据分类的方法可以分为数据、算法两个层面。算法层面主要是对已有算法进行改进,提升算法对少数类的准确识别率,如集成学习方法、代价敏感算法等。数据层面主要是通过重采样技术,重新构造训练数据集,从而降低数据集的不平衡度。
重采样技术主要分为过采样技术和欠采样技术。过采样技术通过一定的方法增加少数类的样本数目,其中比较常用的是随机过采样方法和SMOTE方法[11]。由于新添许多样本,过采样技术容易造成数据冗余和分类器过拟合的现象。欠采样技术采用某种规则舍弃部分多数类样本,使得多数类样本数目趋近于少数类样本数目。最常用的方法是随机欠采样[12]及其改进的欠采样方法,如Kubat和Matwin[13]的单边选择方法,谢纪刚和裘正定[14]提出的加权Fisher线性判别方法。欠样技术由于删除了部分多数类样本,可能导致分类时数据信息的缺失,从而对分类结果造成一定的影响。
数据重采样技术的关键在于采用什么样的采样方法,能够最大限度地保留原数据集的分布信息,得到具有代表性、对分类起关键作用的样本集。本文提出一种基于类重叠度的欠采样技术,抽取对分类起决定性作用的支持向量,较好地维持了原有的数据分布,在保证良好的分类精度的基础上,减小算法的运行时间。
2 基于LOF去噪和类重叠度欠采样的非平衡数据预处理算法2.1 算法思想在支持向量机的分类中,并不是所有的样本都起着相同的作用,支持向量机算法的最终分类精度是由样本集中的支持向量决定的。支持向量在整个训练样本集中所占的比例非常小,在支持向量机的训练过程中,花费大量的时间去训练非支持向量的样本,将大大增加算法的运行成本。鉴于支持向量机最终是由支持向量决定的,在数据预处理的过程中,从训练样本集中抽取出支持向量,删除非支持向量的样本,对最终的算法模型并不会造成影响,如此可以从样本集中删除大量的无用样本,只余重要样本,提高算法运行效率的同时,降低训练数据集的不平衡比例。
由于支持向量机模型的以上特点,且支持向量分布在分类决策面附近,即各类的类重叠区域,类重叠度越高的训练样本,成为支持向量的可能性越大,本节通过对训练数据集进行预处理,采用LOF和箱线图的方法首先去除数据集中的噪声样本,然后基于类重叠度的思想,选择性地对训练样本集进行欠采样,保留对分类起决定性作用的支持向量,删除对分类没有作用的非支持向量的样本。具体为:计算每个训练样本的类重叠度,并将训练样本集根据类重叠度从大到小的顺序排列,设置抽取的样本数,抽取类重叠度大的部分样本集作为新的训练样本集。较之于原数据集,新的训练数据集在数据规模上大大减小,且数据集的不平衡比例也有所降低。
2.2 基于LOF和箱线图的去噪方法支持向量机在训练过程中平等地对待所有训练样本,算法很容易受到噪声样本的干扰,使得分类结果产生偏差。在不平衡数据分类中,虽然在数据预处理的过程中,对数据集欠采样能够抑制不平衡数据对分类的影响,但支持向量机仍然会受到噪声样本的干扰。所以,在对不平衡数据集欠采样处理前,首先应该去除数据集中的噪声样本。本节采用LOF局部离群点因子[9]和箱线图[10]去除噪声样本。
LOF局部离群点因子表示数据对象的离群程度,数据对象的LOF局部离群点因子越大,则该数据对象的离群程度越高,越有可能是噪声样本。基于此思想,可以计算出每个训练样本点的局部离群点因子LOF,然后采用箱线图的方法,剔除训练数据集中LOF过大的一些样本。
箱线图方法中,超过内栏的值被认为是潜在的异常值,代表相对稀有的样本点。为了去除数据集中的噪声样本,结合局部离群点因子LOF的特性,通过对训练数据集的局部离群点因子作箱线图,剔除离群点因子超过箱线图的上内栏的部分样本集,这些样本的离群点因子过大,是噪声样本的可能性很大。
综上,本节提出一种基于LOF和箱线图的去噪算法,算法如表 1所示。
Table 1
表 1 基于LOF和箱线图的去噪算法Table 1 Denoising algorithm based on LOF and box-whisker plot
输入:训练数据集
输出:剔除噪声样本后的训练数据集
步骤1:计算所有数据对象的局部离群点因子LOF。
步骤2:对所有数据对象的局部离群点因子LOF作箱线图。
步骤3:剔除局部离群点因子LOF超过箱线图的上内栏的部分样本集。
步骤4:输出剔除噪声样本后的训练数据集。

表 1 基于LOF和箱线图的去噪算法Table 1 Denoising algorithm based on LOF and box-whisker plot

2.3 基于LOF去噪和类重叠度欠采样的非平衡数据预处理算法欠采样方法容易删除重要的数据样本,造成分类结果的偏差,而对于支持向量机而言,其最终的分类精度是由训练数据集中的支持向量决定的,所以如何抽取训练数据集中的支持向量是基于支持向量机的欠采样方法的关键。支持向量分布在分类决策面附近,即各类的类重叠区域,类重叠度越高的训练样本,成为支持向量的可能性越大,它的重要程度也越高。基于此,本文根据各训练样本点的类重叠度,选择性地对训练数据集进行欠采样,保留对分类起决定性作用的支持向量,删除对分类没有作用的训练样本。
文献[15]定义类(Cp, Cq)在数据点xi处的重叠度:
$\begin{gathered} {\mu _2}\left( {{x_i}, {C_p}, {C_q}} \right) = {\text{Min}}\left\{ {\frac{{\left\| {{x_i}-{V_p}} \right\|}}{{\left\| {{x_i}-{V_p}} \right\| + \left\| {{x_i}-{V_q}} \right\|}}, } \right. \hfill \\ \;\;\;\;\;\;\;\;\;\;\;\;\;\;\left. {\frac{{\left\| {{x_i} - {V_q}} \right\|}}{{\left\| {{x_i} - {V_p}} \right\| + \left\| {{x_i} - {V_q}} \right\|}}} \right\}, \hfill \\ \end{gathered} $ (1)
式中:VpVq分别是类CpCq的类中心点;||xi-Vp||和||xi-Vq||分别表示xi到两类中心点的距离;μ2(xi, Cp, Cq)表示xi属于类Cp和类Cq的模糊度。类Cp和类Cq的划分越清楚,重叠度越低,其值分布在0~0.5。然而,该方法只适用于均衡分布的数据集,对于分布不均衡的数据集,它存在不足。由图 1可以看出A点距两类中心点的距离相等,按照类重叠度公式1,A点计算得到的的类重叠度为0.5,为最高的类重叠度,这显然不符合实际情况,从图 1可以明显看到,A点并不在两类的重叠区域。
Fig. 1
Download: JPG
larger image
图 1 类重叠度图 Fig. 1 Class overlap
图 1 类重叠度图

Fig. 1 Class overlap -->

基于上述观察,本文改进类重叠度公式为
$\begin{gathered} {\mu _2}\left( {{x_i}, {C_p}, {C_q}} \right) = {\text{Min}}\left\{ {\frac{{\left\| {{x_i}-{V_p}} \right\|/{R_p}}}{{\left\| {{x_i}-{V_p}} \right\|/{R_p} + \left\| {{x_i}-{V_q}} \right\|/{R_q}}}, } \right. \hfill \\ \;\;\;\;\;\;\;\;\;\;\;\;\;\;\left. {\frac{{\left\| {{x_i} - {V_q}} \right\|/{R_q}}}{{\left\| {{x_i} - {V_p}} \right\|/{R_p} + \left\| {{x_i} - {V_q}} \right\|/{R_q}}}} \right\}, \hfill \\ \end{gathered} $ (2)
式中:RpRq分别是类Cp和类Cq的平均类中心距离,计算公式为${R_p} = \frac{1}{{{n_p}}}\sum\limits_{{x_i} \in {C_p}} {\left\| {{x_i}-{V_p}} \right\|}, {R_q} = \frac{1}{{{n_q}}}\sum\limits_{{x_i} \in {C_q}} {\left\| {{x_i}-{V_q}} \right\|} $; npnq分别是类Cp和类Cq的样本数量。对于图 1中的情况,利用本文改进后的类重叠度公式,A点的重叠度μ(A)=1/(1+Rp/Rq),由于Rp>Rq, 所以μ(A) < 1/2。随着RpRq的差距逐渐增大,A点距两类之间的重叠区域越来越远,A点的类重叠度也逐渐减小,符合实际的情况。
对于多分类的情况,定义每个训练样本点的类重叠度为该点所属类分别与其他各类在该点的类重叠度的均值。假设训练样本有k个类,分别是C1, C2, …, Ck,样本点xi属于其中一个类Cp,定义xik类重叠度为xi的所属类Cp分别与其他各类在xi处的二类重叠度的均值,即
${\mu _k}\left( {{x_i}} \right) = \frac{1}{{k-1}}\sum\limits_{q \ne p} {{\mu _2}\left( {{x_i}, {C_p}, {C_q}} \right)} .$ (3)
然而,式(3)仍存在一定局限性,如图 2所示,A点属于类Cp,用红色的三角形表示,B点属于类Cq,用绿色的三角形表示,它们都处于两类的重叠区域中,且它们与两类的类中心距离分别相等。如果按照式(3)计算,类Cp和类CqA点和B点的类重叠度相等。但是由图 2可以看出:A点的10个最近邻点中有5个属于自己类,另5个属于类CqB点的10个最近邻点中却有7个都是属于自己类,只有3个属于类Cp,容易得到类Cp和类CqA点的类重叠度应比B点更大。由此,启发我们可以用训练样本点的K个近邻样本中异类样本所占的比例来反映该点的类重叠度。所以,对于k类分类,进一步改进类重叠度公式为
Fig. 2
Download: JPG
larger image
图 2 不同点的类重叠度 Fig. 2 Class overlap for different points
图 2 不同点的类重叠度

Fig. 2 Class overlap for different points -->

${\mu _k}\left( {{x_i}} \right) = 0.5 \times \left( {\frac{1}{{k-1}}\sum\limits_{q \ne p} {{\mu _2}\left( {{x_i}, {C_p}, {C_q}} \right) + \frac{{{K_i}}}{K}} } \right), $ (4)
式中:K表示K个近邻样本点;Ki表示第i个样本点的K个近邻样本中异类样本数。
综上,本节基于LOF去噪和类重叠度欠采样的非平衡数据预处理的算法,具体描述如表 2所示。
Table 2
表 2 基于LOF去噪和类重叠度欠采样的非平衡数据预处理算法Table 2 Imbalanced data preprocessing algorithm based on LOF denoising method and class-overlap degree undersampling method
输入:训练样本集,抽取的样本数
输出:预处理过后的样本集
步骤1:根据算法1, 得到经过LOF和箱线图去除噪声样本后的训练样本集。
步骤2:根据类重叠度公式计算所有样本的类重叠度,并将训练样本集根据类重叠度从大到小的顺序重新排列。
步骤3:根据预先设置好的抽取样本数,抽取类重叠度排在前列的部分样本
步骤4:输出抽取的训练样本,作为预处理过后的样本集

表 2 基于LOF去噪和类重叠度欠采样的非平衡数据预处理算法Table 2 Imbalanced data preprocessing algorithm based on LOF denoising method and class-overlap degree undersampling method

3 基于类重叠度欠采样的不平衡模糊多类支持向量机传统的支持向量机等同地对待所有的训练样本点,对所有错分的训练样本点分配相同的权重。然而,在实际应用中,数据集中的不同样本点对分类产生的作用是不同的,因此一个合理的做法是根据各训练样本点的重要性,为每个训练样本点分配不同的权值。第2节提出的基于LOF去噪和类重叠度欠采样的预处理算法,可以有效地删除噪声样本和冗余样本,保留支持向量,数据集的不平衡比例也明显降低。预处理过后的数据集中每个样本点的类重叠度代表着该样本点的重要程度,以相应的类重叠度作为隶属度值,构造模糊多类支持向量机。
对于k类分类,给定一个带有类别标记以及模糊隶属度的训练样本集S={(xi, yi, ui), i=1, 2, …, N}。式中:xiRn是训练样本集;yi∈{1, 2, …, k}是对应的类别标记;ui=μk(xi)为第i个样本的改进后的类重叠度,见公式(4)。则基于LOF去噪和类重叠度欠采样的不平衡模糊多类支持向量机模型如下(以Crammer-Singers直接多分类算法[16]为基础模型)
$\min \frac{1}{N}\sum\limits_{i = 1}^N {{u_i}{\varepsilon _i}} + \frac{\lambda }{2}\sum\limits_{i = 1}^k {\mathit{\boldsymbol{w}}_i^{\text{T}}{\mathit{\boldsymbol{w}}_i}}, $ (5)
$\begin{gathered} {\text{subject}}\;{\text{to}} \hfill \\ \mathit{\boldsymbol{w}}_{{y_i}}^{\text{T}}{x_i}-\mathit{\boldsymbol{w}}_j^{\text{T}}{x_i} \geqslant 1-{\varepsilon _i}, \left( {i = 1, \cdots, N, j \ne {y_i}} \right) \hfill \\ {\varepsilon _i} \geqslant 0, \left( {i = 1, \cdots, N} \right) \hfill \\ {\mathit{\boldsymbol{w}}_i} \in {{\bf{R}}^{n + 1}}, \left( {i = 1, \cdots, k} \right). \hfill \\ \end{gathered} $
式中:λ>0是一个调节因子,类似于标准支持向量机中的参数Cε=[ε1, ε2, …, εN]表示松弛变量。
由式(5)可以看出,每个样本点xi的错分代价为uiεi,模糊隶属度ui越小,则损失参数εi对目标函数值的影响越小,所对应的样本点xi越不重要。
综上,基于LOF去噪和类重叠度欠采样的不平衡模糊多类支持向量机的具体算法描述,如表 3所示。
Table 3
表 3 基于LOF去噪和类重叠度欠采样的不平衡模糊多类支持向量机算法Table 3 Imbalanced fuzzy multiclass support vector machine algorithm based on LOF denoising method and class-overlap degree undersampling
输入:训练数据集
输出:决策函数
步骤1:采用表 2描述的基于LOF去噪和类重叠度欠采样的非平衡数据预处理算法对训练数据集进行预处理。
步骤2:得到预处理后的训练数据集,以及每个样本点对应的类重叠度,将类重叠度作为隶属度值带入模型(5)中,进行训练。
步骤3:输出基于LOF去噪和类重叠度欠采样的不平衡模糊多类支持向量机的决策函数。

表 3 基于LOF去噪和类重叠度欠采样的不平衡模糊多类支持向量机算法Table 3 Imbalanced fuzzy multiclass support vector machine algorithm based on LOF denoising method and class-overlap degree undersampling

4 实验结果与分析为了验证本文方法的有效性和普适性,本节实验由模拟数据实验和实际数据实验两部分组成。实验在2.4 GHz/8 GB的PC主机上利用Matlab R2015软件实现,所有数值实验以Crammer-Singers直接多分类支持向量机作为基础模型。
4.1 模拟数据实验为了验证基于LOF去噪和类重叠度欠采样的不平衡数据预处理算法的有效性,本节将在一个不平衡的模拟数据集上进行实验,并根据模拟实验结果,分析上述预处理算法的有效性。
随机生成3类正态分布的数据集,其中类1为均值为[2, 2],方差为[0.2, 0;0, 0.3]的样本集,共50个样本点;类2为均值为[3.5, 2],方差为[0.3, 0;0, 0.4]的样本集,共100个样本点;类3为均值为[2.8, 3.8],方差为[0.4, 0;0, 0.5]的样本集,共200个样本点。为了验证提出的预处理算法的去噪能力以及更符合实际应用情况,在[0, 5]×[0, 6]范围内随机产生50个噪声样本。加上噪声样本,总的模拟数据集共400个样本。设置预抽取的样本数为200。
对以上含噪声的模拟数据,进行基于LOF去噪和类重叠度欠采样的不平衡数据预处理,结果如图 3所示。为方便区别,在下面所有图中,类1中的样本由“*”表示,类2中的样本由“+”表示,类3中的样本由“o”表示,噪声样本由“Δ”表示。
Fig. 3
Download: JPG
larger image
图 3 非平衡数据预处理算法的模拟实验结果 Fig. 3 Simulation results of imbalanced data preprocessing algorithm
图 3 非平衡数据预处理算法的模拟实验结果

Fig. 3 Simulation results of imbalanced data preprocessing algorithm -->

图 3为上述非平衡数据预处理算法在加噪后的3类正态分布的数据集上的分段处理效果图。图 3(a)显示原有的正态分布的数据集,共350个样本点。图 3(b)是在原有数据集中增加50个噪声样本后的数据集分布,可以看出,增加噪声样本后的数据集的分布比较复杂,如果直接以这样的数据集进行分类,将严重影响分类结果。图 3(c)是经过LOF和箱线图去除噪声样本后的数据集,剔除42个噪声样本,剩余358个样本点,由图可以看出,经过去噪后的数据集,噪声样本明显减少,数据集分布较为明晰。图 3(d)是在去噪后的数据集中基于类重叠度由大到小的顺序抽取的200个数据集,即预处理过后的数据集,由图可以看出,样本数量明显减少,但是缩减过后的数据集依然较好地保留了原有的数据分布,尤其在分类决策面附近对分类起着关键作用的支持向量得到了比较好的保留,且数据集的不平衡比例经过欠采样后也明显地降低,由1:2:4降低至1:2.30:2.76,剔除了多数类中的大量冗余样本。
4.2 实际数据实验1) 评价准则
对于不平衡数据分类问题,常用的评价指标有AvgAcc,G-mean[17]等。假设k类分类,Acci表示第i类的分类精度,则AvgAcc是各类分类精度的算术平均值,G-mean是各类分类精度的几何平均值,计算方法如下:
$\begin{gathered} {\text{AvgAcc = }}\frac{1}{k}\sum\limits_{i = 1}^k {{\text{Ac}}{{\text{c}}_i}}, \hfill \\ {\text{G-mean}} = {\left( {\prod\limits_{i = 1}^k {{\text{Ac}}{{\text{c}}_i}} } \right)^{\frac{1}{k}}}. \hfill \\ \end{gathered} $
2) 实验数据
本次实验选用UCI数据库中4个UCI数据集,数据集具体参数见表 4,其中不平衡率为各类别的样本数量与最小类的样本数量的不平衡比例。
Table 4
表 4 UCI数据集及相关属性Table 4 UCI datasets and related attributes
数据集 类别数 每类样本数 样本总数 不平衡率
Balance 3 49/288/288 625 1:5.9:5.9
Ecoli 5 29/35/52/77/143 336 1:1.2:1.8:2.7:4.9
Glass 4 29/39/70/76 214 1:1.3:2.4:2.6
User 4 50/102/122/129 403 1:2:2.4:2.6

表 4 UCI数据集及相关属性Table 4 UCI datasets and related attributes

实验中,除User数据集自带训练集和测试集,其他每个数据采用5折交叉检验,并取5次结果的均值作为最终结果。由于Ecoli和Glass数据集中某些类的样本数量较少,并不适用于5折交叉检验,所以实验将Ecoli中原样本数量分别为2, 2, 5, 20的4类合并为一类,将Glass中原样本数量分别为9, 13, 17的3类合并为一类。
3) 实验结果与分析
为验证本文方法的有效性和普适性,将本文算法与原支持向量机、常用于不平衡数据分类的DEC[18]算法、用于不平衡数据分类的模糊支持向量机FSVM-CLLexpcen[19]和随机欠采样的支持向量机进行比较。实验采用5折交叉验证方法所得的均值作为最终实验结果,所有实验的测试集和训练集都相同。其中,因为随机采样的支持向量机具有采样的随机性的特点,为了更公平地展示它的分类效果,其实验采用5次5折交叉验证的均值作为最终结果。实验中支持向量机算法中的参数λ的取值范围是{10-5, 10-4, …, 105}。
实验结果如表 5表 6所示,表 5显示算法中每个数据集的实际样本数和算法预抽取的样本数,表 6列出各方法在不平衡数据集上分类精度和运行时间的比较结果。其中,CMSVMsuiji表示随机欠采样的支持向量机。
Table 5
表 5 实验中各数据集抽取样本数Table 5 Number of samples extracted from each dataset in the experiment
数据集 实际样本数 预抽取样本数
Balance 625 200
Ecoli 336 150
Glass 214 70
User 403 120

表 5 实验中各数据集抽取样本数Table 5 Number of samples extracted from each dataset in the experiment


Table 6
表 6 实验结果Table 6 Experimental results
Balance Ecoli Glass User
AvgAcc G-mean Time/s AvgAcc G-mean Time/s AvgAcc G-mean Time/s AvgAcc G-mean Time/s
CMSVM 0.64 0 112 0.20 0 134 0.91 0.87 33 0.25 0 19
DEC 0.66 0.13 120 0.39 0 107 0.90 0.87 47 0.26 0 26
FSVM-CLLexpcen 0.85 0.72 1 662 0.38 0 1 028 0.92 0.90 239 0.71 0.67 178
CMSVMsuiji 0.79 0.64 42 0.43 0.30 69 0.91 0.88 33 0.72 0.31 8
本文算法 0.87 0.85 105 0.76 0.71 97 0.90 0.89 54 0.89 0.88 18

表 6 实验结果Table 6 Experimental results

表 5显示,抽取的样本集只占原数据集的一小部分。由表 6的实验结果可以看出,就运行时间而言,由于训练样本数的减少,本文算法和随机欠采样支持向量机在运行时间上要小于其他算法。此外,因为本文算法需要计算每个样本点的LOF局部离群点因子和类重叠度,所以在运行时间上会略高于随机欠采样的支持向量机。比如在Balance数据集上,本文方法运行时间是105 s,随机欠采样的支持向量机的运行时间是42 s, 但其他方法的最少运行时间是112 s,本文方法的运行时间要高于随机欠采样的支持向量机的运行时间,但要低于其他方法的运行时间。就分类精度而言,除在Glass数据集上,本文算法的精度以微小的差距低于一些算法,其他数据集上,本文算法的分类精度均要优于其他算法。如在Balance数据集中,就AvgAcc评价准则,本文方法的分类精度为0.87,其他方法的最高分类精度为0.85,本文方法要高于其他方法,就G-mean评价准则,本文方法的分类精度为0.85,其他方法的最高分类精度为0.72,本文方法要高于其他方法。就实验结果的稳定性而言,同样是抽取相同数目的训练样本,本文算法是根据训练数据集的类重叠度由大至小抽取样本集,实验结果是固定的,然而对于随机欠采样的支持向量机,由于每次随机采样的训练样本集可能不同,实验结果也不稳定。综上,对于相同的数据集,本文提出的算法在运行时间上仅次于随机欠采样支持向量机;在分类精度上要高于其他算法;而且本文算法还克服了随机欠采样的支持向量机的实验结果不稳定的缺点。
5 结论针对支持向量机在不平衡数据集上分类效果并不理想且对噪声数据敏感的问题,本文提出基于类重叠度欠采样的不平衡模糊多类支持向量机算法,首先对数据集进行预处理,采用LOF局部离群点因子和箱线图结合的方法删除训练数据集中的噪声样本,然后设置合适的采样数目,根据类重叠度抽取对分类起关键作用的支持向量。预处理过后的数据集最大限度地维持了原有的数据分布信息,并且降低了原数据集的不平衡比例。算法最后将代表每个样本点的重要程度的类重叠度作为隶属度值,构造模糊多类支持向量机。由于算法是基于类重叠度对训练数据集进行欠采样,支持向量等重要样本被较好地保留下来,且只要设定固定的抽样数目,则实验结果便是固定的,所以该算法克服了随机欠采样方法容易丢失重要样本信息和实验结果不稳定的缺点。实验结果表明,该算法在能够很好地提升支持向量机在不平衡且含噪声的数据集上的分类精度的同时,缩减算法的运行时间。
参考文献
[1] Cortes C, Vapnik V. Support-vector networks[J].Machine Learning, 1995, 20(3):273–297.
[2] 康健, 左宪章, 唐力伟, 等. 基于灰色支持向量机的裂纹扩展信息预测研究[J].机械强度, 2010, 32(5):120–123.
[3] Cao L J, Lee H P, Chong W K. Modified support vector novelty detector using training data with outliers[J].Pattern Recognition Letters, 2003, 24(14):2479–2487.DOI:10.1016/S0167-8655(03)00093-X
[4] Wang B X, Japkowicz N. Boosting support vector machines for imbalanced data sets[J].Knowledge and Information Systems, 2010, 25(1):1–20.
[5] Lin C F, Wang S D. Fuzzy support vector machines[J].IEEE Transactions on Neural Networks, 2002, 13(2):464–471.DOI:10.1109/72.991432
[6] Huang H P, Liu Y H. Fuzzy support vector machine for pattern recognition and data mining[J].International Journal of Fuzzy Systems, 2002, 4(3):826–835.
[7] Jiang X, Yi Z, Lü J C. Fuzzy SVM with a new fuzzy membership function[J].Neural Computing & Applications, 2006, 15(3):268–276.
[8] Castillo B, Gennaro S D, Monaco S, et al. On regulation under sampling[J].IEEE Transactions on Automatic Control, 1997, 42(6):864–868.DOI:10.1109/9.587345
[9] 韩家炜. 数据挖掘:概念与技术[M].北京: 机械工业出版社, 2012: 1-3.
[10] McClave J Y, Benson P G, Sincich T. 商务与经济统计学[M]. 易丹辉, 李扬, 译. 北京: 中国人民大学出版社, 2014: 67-69.
[11] Chawla N V, Bowyer K W, Hall L O, et al. SMOTE:synthetic minority over-sampling technique[J].Journal of Artificial Intelligence Research, 2011, 16(1):321–357.
[12] Chen L, Bao L, Li J, et al. An aliasing artifacts reducing approach with random undersampling for spatiotemporally encoded single-shot MRI[J].Journal of Magnetic Resonance, 2013, 237(6):115–124.
[13] Kubat M, Matwin S. Addressing the curse of imbalanced training sets: one-sided selection[C]//Fisher D H. 14th International Conference on Machine Learning. San Francisco: MorganKaufmann Press, 1997: 179-186.
[14] 谢纪刚, 裘正定. 非平衡数据集Fisher线性判别模型[J].北京交通大学学报, 2006, 30(5):15–18.
[15] 瞿俊, 姜青山, 翁芳菲. 基于重叠度的层次聚类算法[J].计算机研究与发展, 2007, 44(s2):181–186.
[16] Crammer K, Singer Y. On the algorithmic implementation of multiclass kernel-based vector machines[J].Journal of Machine Learning Research, 2001, 2(2):265–292.
[17] 浮盼盼. 大规模不均衡数据分类方法研究[D]. 大连: 辽宁师范大学, 2014.http://www.docin.com/p-981415390.html
[18] Veropoulos K, Campbell C, Cristianini N. Controlling the sensitivity of support vector machines[C]//International Joint Conference on Artificial Intelligence. Stockholm: IJCAI Press, 1999: 55-60.
[19] Batuwita R, Palade V. FSVM-CIL:fuzzy support vector machines for class imbalance learning[J].IEEE Transactions on Fuzzy Systems, 2010, 18(3):558–571.DOI:10.1109/TFUZZ.2010.2042721


相关话题/数据 实验 技术 信息 比例

  • 领限时大额优惠券,享本站正版考研考试资料!
    大额优惠券
    优惠券领取后72小时内有效,10万种最新考研考试考证类电子打印资料任你选。涵盖全国500余所院校考研专业课、200多种职业资格考试、1100多种经典教材,产品类型包含电子书、题库、全套资料以及视频,无论您是考研复习、考证刷题,还是考前冲刺等,不同类型的产品可满足您学习上的不同需求。 ...
    本站小编 Free壹佰分学习网 2022-09-19
  • 基于Radarsat-2全极化数据的张掖地区土壤水分的反演
    王睿馨1,宋小宁1,马建威2,孙川11.中国科学院大学资源与环境学院,北京101408;2.中国水利水电科学研究院,北京1000382017年04月07日收稿;2017年05月08日收修改稿基金项目:中国科学院西部行动计划项目子课题(KZCX2-XB3-15)资助通信作者:宋小宁,E-mail:so ...
    本站小编 Free考研考试 2021-12-25
  • SM4的快速软件实现技术
    郎欢1,2,张蕾1,吴文玲1,21.中国科学院软件研究所可信计算与信息保障实验室,北京100190;2.中国科学院大学,北京1001902017年01月17日收稿;2017年04月19日收修改稿基金项目:国家自然科学基金(61232009,61672509)资助通信作者:郎欢,E-mail:lang ...
    本站小编 Free考研考试 2021-12-25
  • 针柱诱导铝表面冷凝液滴聚并的实验研究
    张雷刚,陈振乾东南大学能源与环境学院,南京2100962017年04月27日收稿;2017年05月31日收修改稿基金项目:载人航天工程空间应用系统天舟一号货运飞船科学实验项目(TZYY08001)、国家自然科学基金(51606037)和江苏省自然科学基金(BK20160687)资助通信作者:陈振乾, ...
    本站小编 Free考研考试 2021-12-25
  • 部分填充泡沫金属对温差发电器性能影响的实验研究
    王世学,梁昭军,赵玉龙,李彦哲天津大学中低温热能高效利用教育部重点实验室,天津3000722017年05月12日收稿;2017年07月03日收修改稿基金项目:科技部973计划(2011CB707203)和中日国际合作项目(2016YFE0118600)资助通信作者:李彦哲,E-mail:timdun ...
    本站小编 Free考研考试 2021-12-25
  • 锂离子动力电池液体冷却实验研究
    安周建,贾力,杨成亮,党超,许茗宸北京交通大学机械与电子控制工程学院热能工程研究所,北京100044;微细尺度流动与相变传热北京市重点实验室,北京1000442017年04月18日收稿;2017年10月19日收修改稿基金项目:国家自然科学基金(51376019)资助通信作者:贾力,E-mail:lj ...
    本站小编 Free考研考试 2021-12-25
  • 一种用于可见光通信的自适应OFDM系统设计与实验
    蔡少阳,陈力,王卫东中国科学技术大学中国科学院无线光电通信重点实验室,合肥2300272016年12月19日收稿;2017年03月29日收修改稿基金项目:973计划项目(2013CB329205)资助通信作者:陈力,E-mail:chenli87@ustc.edu.cn摘要:可见光通信(visibl ...
    本站小编 Free考研考试 2021-12-25
  • 基于葵花8号卫星数据的气溶胶反演算法及其在雾霾过程监测中的应用
    牛晓君1,唐家奎1,张自力2,崔林丽3,幸炜鹏1,宋艺11.中国科学院大学资源与环境学院,北京100049;2.浙江省环境监测中心,杭州310015;3.上海市气象科学研究所,上海2000302018年3月22日收稿;2018年5月22日收修改稿基金项目:中国科学院战略性先导科技专项资助(XDA20 ...
    本站小编 Free考研考试 2021-12-25
  • 基于SeaWiFS对月观测数据的月球辐照度模型分析
    曾祥钊1,2,唐伶俐11.中国科学院光电研究院中国科学院定量遥感信息技术重点实验室,北京100094;2.中国科学院大学,北京1000492018年4月23日收稿;2018年5月11日收修改稿基金项目:中国科学院国际合作局对外合作重点项目(181811KYSB20160040)资助通信作者:唐伶俐, ...
    本站小编 Free考研考试 2021-12-25
  • 一种基于图像处理的一维条码快速定位技术
    纪琴琴1,黄鲁21.中国科学技术大学微电子学院,合肥230027;2.中国科学技术大学信息科学技术学院,合肥2300272018年3月21日收稿;2018年5月22日收修改稿基金项目:国家自然科学基金(61472380)资助通信作者:黄鲁,E-mail:luhuang@ustc.edu.cn摘要:基 ...
    本站小编 Free考研考试 2021-12-25
  • 高光谱监测技术在重金属污染土壤上的应用
    陈功伟,赵思颖,倪才英江西师范大学地理与环境学院,南昌3300222018年5月7日收稿;2018年10月10日收修改稿基金项目:江西省环保厅基金科技项目(JXHBKJ2013-6)资助通信作者:倪才英,E-mail:ncy1919@126.com摘要:为克服传统重金属污染监测的不足,加强新技术应用 ...
    本站小编 Free考研考试 2021-12-25