卢红波1,
纪守领2,
周武杰3,
吴淑慧1,
云本胜1,
陶祥兴1,
雷景生3
1.浙江科技学院理学院/大数据学院 ??杭州 ??310023
2.浙江大学计算机学院 ??杭州 ??310027
3.浙江科技学院电子与信息工程学院 ??杭州 ??310023
基金项目:浙江省自然科学基金(LY17F020011, LY18F020012),浙江省公益技术应用研究项目(LGG19F030001),国家自然科学基金(61772466, 61672337, 11771399)
详细信息
作者简介:钱亚冠:男,1976年生,副教授,研究方向为机器学习安全、计算机视觉
卢红波:男,1993年生,硕士生,研究方向为机器学习安全
纪守领:男,1986年生,研究员,主要研究方向为人工智能安全、数据驱动安全与隐私保护
周武杰:男,1983年生,副教授,主要研究方向为机器视觉
吴淑慧:女,1975年生,讲师,研究领域为深度神经网络
云本胜:男,1980年生,讲师,研究领域为机器学习与数据挖掘
陶祥兴:男,1966年生,教授,主要研究领域为信号处理与金融数据分析
雷景生:男,1967年生,教授,主要研究领域为机器学习与大数据处理
通讯作者:钱亚冠 QianYaGuan@zust.edu.cn
中图分类号:TP309.2计量
文章访问数:2557
HTML全文浏览量:693
PDF下载量:92
被引次数:0
出版历程
收稿日期:2018-08-06
修回日期:2019-01-28
网络出版日期:2019-02-15
刊出日期:2019-07-01
Adversarial Example Generation Based on Particle Swarm Optimization
Yaguan QIAN1,,,Hongbo LU1,
Shouling JI2,
Wujie ZHOU3,
Shuhui WU1,
Bensheng YUN1,
Xiangxing TAO1,
Jingsheng LEI3
1. School of Science/School of Big-data Science, Zhejiang University of Science and Technology, Hangzhou 310023, China
2. School of Computer Science, Zhejiang University, Hangzhou 310027, China
3. School of Electronic and Information Engineering, Zhejiang University of Science and Technology, Hangzhou 310023, China
Funds:Zhejiang Natural Science Foundation (LY17F020011, LY18F020012), The Scientific Project of Zhejiang Provincial Science and Technology Department (LGG19F030001), The National Natural Science Foundation of China(61772466, 61672337, 11771399)
摘要
摘要:随着机器学习被广泛的应用,其安全脆弱性问题也突显出来。该文提出一种基于粒子群优化(PSO)的对抗样本生成算法,揭示支持向量机(SVM)可能存在的安全隐患。主要采用的攻击策略是篡改测试样本,生成对抗样本,达到欺骗SVM分类器,使其性能失效的目的。为此,结合SVM在高维特征空间的线性可分的特点,采用PSO方法寻找攻击显著性特征,再利用均分方法逆映射回原始输入空间,构建对抗样本。该方法充分利用了特征空间上线性模型上易寻优的特点,同时又利用了原始输入空间篡改数据的可解释性优点,使原本难解的优化问题得到实现。该文对2个公开数据集进行实验,实验结果表明,该方法通过不超过7%的小扰动量生成的对抗样本均能使SVM分类器失效,由此证明了SVM存在明显的安全脆弱性。
关键词:机器学习/
支持向量机/
探测攻击/
显著性扰动/
对抗样本
Abstract:As machine learning is widely applied to various domains, its security vulnerability is also highlighted. A PSO (Particle Swarm Optimization) based adversarial example generation algorithm is proposed to reveal the potential security risks of Support Vector Machine (SVM). The adversarial examples, generated by slightly crafting the legitimate samples, can mislead SVM classifier to give wrong classification results. Using the linear separable property of SVM in high-dimensional feature space, PSO is used to find the salient features, and then the average method is used to map back to the original input space to construct the adversarial example. This method makes full use of the easily finding salient features of linear models in the feature space, and the interpretable advantages of the original input space. Experimental results show that the proposed method can fool SVM classifier by using the adversarial example generated by less than 7 % small perturbation, thus proving that SVM has obvious security vulnerability.
Key words:Machine learning/
Support Vector Machine(SVM)/
Exploring attacks/
Salient perpetuation/
Adversarial example
PDF全文下载地址:
https://jeit.ac.cn/article/exportPdf?id=38333ef6-c970-409b-ade8-7d36fcf0e794