1.中国信息安全测评中心, 北京 100085;
2.北京航空航天大学 计算机学院, 北京 100191;
3.邢台学院 数学与信息技术学院, 邢台 054001
收稿日期: 2016-01-22
基金项目: 国家自然科学基金资助项目(61502536);河北省高等学校青年拔尖人才计划项目(BJ201414)
作者简介: 马金鑫(1986-), 男, 助理研究员。E-mail: majinxin2003@126.com
摘要:在软件漏洞挖掘领域, Fuzzing测试是使用最广泛、最有效的方法之一。传统Fuzzing测试方法存在工作效率低、盲目性强等不足。该文提出一种样本集精简算法和一种加权的测试时间模型, 能够在保证代码覆盖率不变的情况下减少测试样本的数量, 同时使优质的样本得到更多的测试时间片; 设计了一种基于污点传播的异常分析方法, 可评估异常信息的危害程度, 有助于提高漏洞分析的效率。实验结果表明: 与Peach实验进行对比, 该文提出的方法有效地改进了传统的Fuzzing测试方法。
关键词: 模糊测试 精简集 漏洞分析
Improved fuzzy analysis methods
MA Jinxin1, ZHANG Tao1, LI Zhoujun2, ZHANG Jiangxiao3
1.China Information Technology Security Evaluation Center, Beijing 100085, China;
2.School of Computer Science and Engineering, Beihang University, Beijing 100191, China;
3.Mathematics and Information Technology Institute, Xingtai University, Xingtai 054001, China
Abstract:Fuzzing testing is one of the most widely used and most effective methods for vulnerability detection. However, the traditional fuzzy analysis method is inefficient and works blindly. This paper describes a refining method that reduces the test sample size with the same code coverage. A weighted testing time model is used to give the better sample more time. A taint based exception analysis method is used to evaluate the severity of exceptions and to improve the vulnerability analysis efficiency. Comparisons with Peach show that this method improves the traditional fuzzy analysis method.
Key words: Fuzzingrefining setvulnerability analysis
在软件漏洞挖掘中,使用Fuzzing测试仍然比较广泛。Fuzzing测试是一种通过向目标系统提供非预期输入并监视异常结果来发现软件漏洞的方法[1-5]。通过对测试样本进行变异,输入目标程序并监控其是否发生异常。但是,传统Fuzzing方法具有较强的盲目性,具体表现在:1) 工作效率低,在多数情况下测试用例都是重复相同的路径;2) 未测量Fuzzing过程中的程序执行状态,对测试用例的使用情况并无有效的反馈;3) 对异常的分析与分类较粗糙,导致后期漏洞分析工作效率较低。本文针对Fuzzing测试方法中存在的问题进行分析,深入研究相应的改进与优化方法,以进一步提高Fuzzing挖掘漏洞的效率,增强Fuzzing的实用性。
1 方法描述Fuzzing过程可被形式化地描述为F(Σ,T,P,M)={(E1,t1),(E2,t2),…,(En,tn)},其中,F表示Fuzzing过程,Σ表示初始样本集,T表示Fuzzing所消耗的总时间,P表示Fuzzing的目标程序,M表示对初始样本的变异方式。经过Fuzzing过程后,输出二元组(Ei,ti),其中Ei表示目标程序产生的异常,ti表示该异常产生的时间戳。通过对异常进行分析,判断其产生原因及可利用性,又可以确定是否为漏洞:Π(E)=(Bug|None)。
本文对传统Fuzzing过程中存在的不足进行研究,并从样本选取、Fuzzing过程监视、异常分析与分类3个方面进行优化,提出相应的改进方法,进一步提高Fuzzing的工作效率。
1.1 样本集精简优化Fuzzing过程前需要一个初始样本集来进行变异,初始样本集一般可从2种途径获得:1) 从互联网上海量爬取样本文件;2) 人工构造。传统Fuzzing的方法通常是得到初始样本集后便直接开始进行变异与测试,不考虑重复样本,因此造成大多数样本文件使目标程序执行着相同的路径,重复计算量极大。为表明重复量,本文对1 000个样本文档对微软的Word程序进行测量,发现将近80%的文件并未探测到新的路径,仅是在重复其他样本执行过的路径。
为了减少样本的重复率,提高Fuzzing过程的效率,本文提出一种精简集方法,即通过对初始样本集Σ进行精简处理,计算出初始样本集的子集ω,该子集满足{ω|ω?Σ∧ λ(ω)=λ(Σ)},其中,λ为覆盖率计算函数,表示该样本所对应的代码覆盖。
例如,某目标程序P中包含12个基本块:B={b1,b2,b3,b4,b5,b6,b7,b8,b9,b10,b11,b12}。使用初始样本集Σ={s1,s2,s3,s4,s5,s6},其中:λ(Σ)=B,λ(s1)={b1,b12},λ(s2)={b1,b2,b3,b4},λ(s3)={b1,b3,b5,b7,b8,b11,b12},λ(s4)={b1,b2,b3,b4,b6},λ(s5)={b1,b2,b9,b10,b12},λ(s6)={b1,b2,b3,b7,b8,b9,b10,b12}。经过计算后得到精简集ω={s3,s4,s5}? λ(ω)=λ(Σ)。
从多个集合中计算最小覆盖集为经典NP-hard问题[6],因此难以计算最优解,只能采用近似逼近的算法,本文根据程序代码覆盖的分布特征及经验数据总结,设计了一种贪心逼近的求解算法来计算最小覆盖集,该算法的实现细节如图1所示。
图 1 精简集算法 |
图选项 |
该算法的过程主要为:1) 对所有样本的覆盖率进行排序;2) 合并所有样本的覆盖率M,并在合并过程中,选取具有独有代码覆盖的样本集E,即该样本可覆盖程序中其他样本不可覆盖的位置,这些样本必然包含在最小覆盖集中;3) 总体样本集去掉E后得到新的总覆盖率,根据贪心算法,从大覆盖率的样本开始去重,直到达到总覆盖率为止算法完成。这种算法的时间复杂度为O(n2),且随着样本数的增加,所消耗的时间增加的越快。因此,在实际应用中,对数万级的样本计算最小覆盖集时,本文采用分治的思想,将样本集平均的分成数个较小的样本集,并行地使用该算法进行计算,最后再对所有结果再进行一次最小覆盖集计算,这种方法也较好地提高了最小覆盖集的计算效率。
通过最小覆盖集计算后所得到的精简样本集合ω,可达到初始样本集Σ的代码覆盖率,对最小覆盖集算法进行正确性的验证:λ(ω)=λ(Σ)。
本文提出的样本集精简化方法,可对原始海量样本集进行覆盖集精简化处理,Fuzzing过程只需对精简样本集进行变异并测试,在保证了代码覆盖率的前提下,可大量节省测试时间成本。
1.2 测试过程样本调整在Fuzzing测试中,样本测试过程包括对样本的变异与测试,样本集中的第i个样本的总测试时间Ti为变异次数mi乘以对mi次变异后样本的测试时间ti。
因此可得出Fuzzing测试总时间$T = \sum\limits_{i = 1}^{\left\lfloor \omega \right\rfloor } {{T_i}} $。其中:|ω|表示样本的数量;Ti为每个样本的测试时间片,可表示为${T_i} = {m_i} \times \sum\limits_{l = 1}^{{m_i}} {{t_l}} $,即$T = \sum\limits_{i = 1}^{\left\lfloor \omega \right\rfloor } {\left( {{m_i} \times \sum\limits_{l = 1}^{{m_i}} {{t_l}} } \right)} $。
在大多数的传统Fuzzing方案中,所有样本都被平均处理,一般表现为2种形式:1) 变异次数平均,每个样本变异m次;2) 样本的测试时间片相同,即每个样本的总测试时间Ti恒定。通常情况下,每个变异样本的测试时间相差并不大,即ti≈Ti/mi。
本文所提出的Fuzzing优化方法遵循如下经验性总结:对代码覆盖率高、探测路径能力强的样本进行Fuzzing测试,更容易发现软件中的安全漏洞。因此,将所有样本都均等处理的策略存在不足,每个样本的代码覆盖情况都不相同,变异后探测新路径的能力也相差较大,优质样本(代码覆盖率高、探测未知代码能力强)被Fuzzing测试的程度不够,而较差的样本消耗了过多时间。为此,本文提出一种对样本的评估模型,为每个样本计算独立的权值,作为Fuzzing过程中的参考依据,使得优质的样本能得到较多的测试时间片。
本文提出的权值计算模型为
${{W}_{i}}=\frac{{{\lambda }_{i}}\times \left( 1+{{\mathbb{R}}_{i}} \right)}{\lambda }\times k$ |
因此,加权后的Fuzzing总时间$T = \sum\limits_{i = 1}^{\left\lfloor \omega \right\rfloor } {\left( {{W_i} \times {T_i}} \right)} $,当权值W=1时,该策略等同于传统的平均处理样本的方案。加权后的时间片可较好地体现出Fuzzing过程中的优化原则,对于代码覆盖率高、路径探测能力强的样本,权值W也越大,因此可分配的Fuzzing时间片也越大,更能发挥优质样本的作用。
除此之外,本文还给出2种Fuzzing测试过程的启发式:1) 在Fuzzing过程中,若连续对某样本进行nthres次变异都无法探测到新的代码路径,则停止对该样本的Fuzzing测试,切换到下一个样本;2) 在Fuzzing过程中,若连续对mthres个样本进行变异,都呈现出变异后代码覆盖率急剧下降的特征,则停止整个Fuzzing过程。因为导致这种情况的原因可能为目标程序中存在完整性校验机制,经过变异的样本无法通过检查导致目标程序中止。已有研究人员对绕过校验机制进行了较深入的研究[7-8]。
通过在Fuzzing过程中对样本的执行效果进行监控与分析,根据样本的代码覆盖率及探测新路径的能力,动态地调整不同样本的测试时间片,以使优质的样本可以得到较充分的变异与测试,进而提高软件异常产生的可能性。
1.3 异常分析与分类Fuzzing过程完成后,可能会产生大量的目标程序异常信息。安全研究人员往往需要对这些大量的异常信息进行深入分析,研究异常产生的原因,判断该异常是否为漏洞,这个过程可形式化地描述为
$\begin{align} & \prod{\left( {{c}_{i}} \right)}= \\ & \left\{ \begin{matrix} {{b}_{i}},if\left( \exists {{s}_{i}} \right)\left( \left( P\left( {{s}_{i}} \right)\mapsto {{c}_{i}} \right)\wedge \text{exploitable}\left( {{c}_{i}} \right) \right); \\ 0,\text{otherwise}. \\\end{matrix} \right. \\ \end{align}$ |
在大量的异常中分析是否存在漏洞时,比较繁琐的一项任务是对异常进行分析,由于产生异常数量较多,但是存在大多异常都由同一个漏洞引起的情况,因此需要在异常分析工作前先对异常信息进行分类,以减少异常分析的工作量。
传统的异常分析方法(如MSEC的exploitable插件)较简单,仅依靠对调用栈及异常上下文信息计算哈希来区分不同的异常,这种方法可排除大量的重复异常,但仍存在一些不足:1) 异常产生环境的不确定性导致异常分类不够准确;2) 污点传播策略不够完整。这些问题导致对异常的分析与分类产生偏差,为此,本文在exploitable插件的基础上,提出一种较完善的异常分析与分类方法,能够较准确地对异常进行分析与归类,以辅助后期的可利用性分析。
1) 排除不可再现性异常。
给定一个特定的测试环境,对所有产生异常的输入进行再现性测试,并对异常进行简要的分析,使用异常哈希进行标识,删除异常哈希值相同的异常信息,再对异常信息进行简要的分析。经分析后,可将异常归纳为如下几类(见表1)。此过程可去除掉一部分由不同环境(如内存耗尽、特殊环境变量)引起的、不具有可再现性的异常。
表 1 异常分类
异常分类 | 描述 |
栈代码执行 | 指令指针指向栈中的数据执行 |
非法指令 | 执行非法数据 |
堆栈溢出 | 堆栈中的数据超过界限 |
指令指针异常 | 指令指针指向内存中其他位置 |
读取/写入地址异常 | 在内存读取或写入时,地址指向未知区域 |
分支指令异常 | 分支判断的指令存在异常 |
块复制时读取或写入异常 | 在调用内存拷贝指令时,源地址或目标地址指向未知区域 |
堆栈错误 | 堆栈中存在异常 |
除零异常 | 除数的值为零 |
表选项
2) 基于污点传播的异常分类方法。
将产生异常的输入作为污点源,通过基于污点传播的数据流分析方法,来监控污点数据在程序中的流动情况。通过污点源与异常上下文间的关系分析,可判断该异常是否具有可利用性。此外,污点传播还可辅助安全研究人员利用代码编写漏洞。对于污点传播算法,研究者已经在近年来提出并实现了数个原型系统[9-11]。
本文采用基于对比的污点引入方法,将产生异常的样本与原始样本进行比对,并将差异部分设置成污点。再次加载目标程序,采用在线的污点传播方案监控程序执行直到异常发生,分析污点数据与异常上下文之间的关系。
考虑如下3种情况:
a) Ttaint(input)$ \mapsto $pc.
其中:Ttaint为污点传播函数,input指输入,pc指程序指针,这种情况指污点输入影响程序指令指针,即程序控制流指向可控的位置,可利用性非常高。该漏洞一般是由缓冲区溢出引起,漏洞产生原因位于异常触发以前,需向前回溯分析。
b) Ttaint(input)$ \mapsto $ Addraccess.
其中,Addraccess为指令访问地址,这种情况指污点输入影响指令访问内存的地址,可利用性较高。当污点输入同时影响读取和写入地址时,该漏洞可利用性较高。该类型漏洞产生原因不定,可能为缓存区溢出,也可能是程序设计问题。
c) Ttaint(input)$ \mapsto $ Valenv.
其中,Valenv为当前指令的上下文环境,这种情况指污点输入影响当前指令的某个寄存器或所访问到内存中的值,具有一定可利用性。该漏洞往往需向前或向后追踪若干条指令才能发现可利用的位置,或者结合其他漏洞完成组合式的利用。该漏洞产生的原因位于异常触发之间,需向前回溯分析。
对这3种情况的漏洞进行分级处理,依次为高危、中危和低危。在后期的验证分析阶段,对这些漏洞的处理顺序按照危害等级从高危等级开始处理,可尽早发现可利用的漏洞,提高人工分析的效率。对于其他情况,如污点输入影响分支条件、函数参数或返回值等情况,这种漏洞的处理顺序往往可利用性较低,因此不对这些情况进行处理,直接将其标识为较低危害等级漏洞。
2 实验2.1 系统实现基于本文所提出的改进方法,以Peach作为底层Fuzzing平台,实现了相应的Fuzzing原型系统。Peach是一款开源的Fuzzing系统,支持协议格式自定义、分布式等功能,具有较优的变异策略和自动化测试流程,因此选取Peach作为Fuzzing的基本框架。所实现的Fuzzing平台结构图如图2所示,采用Intel商业化工具Pin[12-19]作为二进制插装平台,编写相应插件完成样本的代码覆盖信息收集、异常分析时污点传播。
图 2 系统结构图 |
图选项 |
从图2中可看出,系统由3个模块构成,分别对应测试前准备、Fuzzing测试中、测试完成后3个阶段,最后的结果经过人工分析后成为漏洞成因、验证代码及危害评估。本文所提出的方法贯穿于整个Fuzzing测试流程:在测试前准备对样本进行精简化处理以减小原始样本集的规模;在Fuzzing测试过程中使用动态的样本选取模型来择优测试,以使优质样本得到充分的测试;在测试完成后,采用基于污点传播的异常分析与分类方法,提高人工分析的工作效率。
2.2 实验过程1) 精简集处理的实验。
本文使用Google搜索引擎从网络上下载了数千个文件,包括DOC、AVI、ICO类型,并将其分成3组,分别以Winword、VLC Player、Xnview作为目标程序,应用本系统的精简集模块进行处理,实验数据见表2。
表 2 精简集处理的实验数据
程序名称 | 样本类型 | 原始样本数量 | 精简集数量 | 代码覆盖率 |
Winword | DOC | 1 000 | 268 | 29% |
VLC Player | AVI | 1 000 | 394 | 18% |
Xnview | ICO | 1 000 | 130 | 21% |
表选项
从表2中数据可看出,使用精简集处理后,样本减少到原始样本的40%以下,极大地减少了Fuzzing所需要的样本。为证明算法的正确性,分别使用精简集样本的代码覆盖率进行合并,与原始样本的代码覆盖率完全相同,可说明精简集算法正确。
2) 动态样本策略调整选取的实验。
同样使用上述几个程序进行测试,为较显著地通过实验来说明问题,本文选取了较旧的程序版本(Winword2003、VLC2.0.1 、Xnview1.98)作为测试对象,以尽快得出测试结论。测试时间阈值为1 000 min,Peach对每个样本变异100次,本系统采用动态调整策略与Peach的对比实验如表3所示。
表 3 动态样本策略调整选取的实验数据
程序名称 | 测试样本数 | Peach生成异常数 | 本系统生成异常数 |
Winword | 100 | 13 | 34 |
VLC Player | 100 | 59 | 128 |
Xnview | 100 | 123 | 151 |
表选项
经测试后,生成的异常数远大于表3中的数据,为使测试数据真实可靠,对产生的异常进行了简单分析,去掉重复的异常。从表3中数据可见,使用本系统测试所得的异常数量确实多于Peach原有的变异策略。
3) 异常分析与分类。
为了更清晰地对此模块的功能进行对比,禁用了动态策略调整模块,使用Peach原有的变异策略来进行测试,并对最终产生的异常进行分析与分类,实验数据如表4所示。
表 4 异常分析与分类实验数据
程序名称 | 异常数量 | |||||||||
Peach分类 | 本系统分类 | 人工验证 | ||||||||
高危 | 中危 | 低危 | 高危 | 中危 | 低危 | 高危 | 中危 | 低危 | ||
Winword | 37 | 10 | 16 | 11 | 0 | 2 | 22 | 0 | 4 | 18 |
VLC Player | 230 | 10 | 54 | 71 | 4 | 17 | 47 | 1 | 15 | 20 |
Xnview | 248 | 13 | 67 | 114 | 4 | 23 | 51 | 1 | 14 | 35 |
表选项
高危漏洞表示可利用漏洞,中危漏洞指不可利用、但某些关键数据可控的漏洞,低危漏洞指不可利用且无数据可控的漏洞。从表4中数据可看出,本系统的分类方法与最终人工分析的结果较为相近,尽管需要一定的时间成本用于污点传播过程,但节约了大量的人力成本,可作为后期异常分析的参考依据。
综上所述,本文所提的方法提高了传统Fuzzing测试的效率。将该方法部署在未知漏洞挖掘系统平台中,已发现大量软件漏洞,其中发现了金山WPS、KMPlayer、Xnview等软件中10个0day漏洞,已提交给国家漏洞库,出于安全性考虑,故不在此批露这些漏洞的细节。
3 结论Fuzzing方法是目前相对比较有效的软件漏洞挖掘方法,但存在着盲目性较强、效率低等不足。本文针对这些不足,从样本处理、测试策略调整、异常分析与分类3个层面提出相应的改进与优化方法,并实现了对应的原型系统。在样本处理方面,提出一种精简集计算方法,可缩减原始样本的数量;在测试过程方面,提出一种动态策略调整方法,可使优质样本得到充分的变异与测试;在异常分析方面,提出一种基于污点传播的异常分析与分类方法,可进行较自动化的异常分析,有助于提高人工分析的效率。通过与传统Fuzzing进行对比实验,可说明本文提出的方法确实有效地改进了传统Fuzzing测试,具有较强的实用性。
参考文献
[1] | Journal of Central South University(Science and Technology), 41(2):649-654.-->李红辉, 齐佳, 刘峰, 等. 模糊测试技术研究[J].中国科学:信息科学,2014, 44(10): 1305–1322.LI Honghui, QI Jia, LIU Feng, et al. The research progress of fuzz testing technology[J].SCIENCE CHINA:Information Sciences,2014, 44(10): 1305–1322.(in Chinese) |
[2] | Journal of Central South University(Science and Technology), 41(2):649-654.-->李伟明, 张爱芳, 刘建财, 等. 网络协议的自动化模糊测试漏洞挖掘方法[J].计算机学报,2011, 2: 242–255.LI Weiming, ZHANG Aifang, LIU Jiancai, et al. An automatic network protocol fuzz testing and vulnerability discover method[J].Chinese Journal of Computers,2011, 2: 242–255.(in Chinese) |
[3] | Journal of Central South University(Science and Technology), 41(2):649-654.-->李舟军, 张俊贤, 廖湘科, 等. 软件安全漏洞检测技术[J].计算机学报,2015, 4: 717–732.LI Zhoujun, ZHANG Junxian, LIAO Xiangke, et al. Survey of software vulnerability detection techniques[J].Chinese Journal of Computers,2015, 4: 717–732.(in Chinese) |
[4] | Journal of Central South University(Science and Technology), 41(2):649-654.-->杨丁宁, 肖晖, 张玉清. 基于Fuzzing的ActiveX控件漏洞挖掘技术研究[J].计算机研究与发展,2012, 49(7): 1525–1532.YANG Dingning, XIAO Hui, ZHANG Yuqing. Vulnerability detection in activex controls based on fuzzing technology[J].Journal of Computer Research and Development,2012, 49(7): 1525–1532.(in Chinese) |
[5] | Journal of Central South University(Science and Technology), 41(2):649-654.-->欧阳永基, 魏强, 王清贤, 等. 基于异常分布导向的智能Fuzzing方法[J].电子与信息学报,2015, 37(1): 143–149.OUYANG Yongji, WEI Qiang, WANG Qingxian, et al. Intelligent fuzzing based on exception distribution steering[J].Journal of Electronics and Information Technology,2015, 37(1): 143–149.(in Chinese) |
[6] | Journal of Central South University(Science and Technology), 41(2):649-654.--> Rebert A, Cha S, Avgerinos T, et al. Optimizing seed selection for fuzzing[C]//Proceedings of the 23rd USENIX Conference on Security Symposium. San Diego, USA:USENIX Association, 2014:861-875. |
[7] | Journal of Central South University(Science and Technology), 41(2):649-654.--> Wang T, Wei T, Gu G, et al. TaintScope:A checksum-aware directed fuzzing tool for automatic software vulnerability[C]//Proceedings of the 2010 IEEE Symposium on Security and Privacy. Washington D C, USA:IEEE, 2010:497-512. |
[8] | Journal of Central South University(Science and Technology), 41(2):649-654.--> Wang T, Wei T, Lin Z, et al. IntScope:Automatically detecting integer overflow vulnerability in x86 binary using symbolic execution[C]//Proceedings of the 16th Network and Distributed System Security Symposium. San Diego, USA:Internet Society, 2010. |
[9] | Journal of Central South University(Science and Technology), 41(2):649-654.-->忽朝俭, 李舟军, 郭涛, 等. 写污点值到污点地址漏洞模式检测[J].计算机研究与发展,2011, 48(8): 1455–1463.HU Chaojian, LI Zhoujun, GUO Tao, et al. Detecting the vulnerability pattern of writing tainted value to tainted address[J].Journal of Computer Research and Development,2011, 48(8): 1455–1463.(in Chinese) |
[10] | Journal of Central South University(Science and Technology), 41(2):649-654.-->Christakis M, Godefroid P. Proving memory safety of the ANI windows image parser using compositional exhaustive testing[J].Lecture Notes in Computer Science,2015, 8931: 373–392. |
[11] | Journal of Central South University(Science and Technology), 41(2):649-654.--> Barr E T, Vo T, Le V, et al. Automatic detection of floating-point exceptions[C]//Proceedings of the 40th Annual ACM SIGPLAN-SIGACT Symposium on Principles of Programming Languages. New York, USA:ACM Press, 2013:549-560. |
[12] | Journal of Central South University(Science and Technology), 41(2):649-654.--> Luk C, Cohn R, Muth R, et al. Pin:Building customized program analysis tools with dynamic instrumentation[C]//Proceedings of the ACM Conference on Programming Language Design and Implementation. New York, USA:ACM Press, 2005:190-200. |
[13] | Journal of Central South University(Science and Technology), 41(2):649-654.--> Lueck G, Patil H, Pereira C. PinADX:An interface for customizable debugging with dynamic instrumentation[C]//Proceedings of the IEEE/ACM International Symposium on Code Generation and Optimization. New York, USA:ACM Press, 2012:114-123. |
[14] | Journal of Central South University(Science and Technology), 41(2):649-654.--> Roy A, Hand S, Harris T. Hybrid binary rewriting for memory access instrumentation[C]//Proceedings of the ACM International Conference on Virtual Execution Environments. New York, USA:ACM Press, 2011:227-238. |
[15] | Journal of Central South University(Science and Technology), 41(2):649-654.--> Skaletsky A, Devor T, Chachmon N, et al. Dynamic program analysis of microsoft windows applications[C]//Proceedings of the International Symposium on Performance Analysis of Software and Systems. New York, USA:IEEE Computer Society, 2010:2-12. |
[16] | Journal of Central South University(Science and Technology), 41(2):649-654.--> Patil H, Pereira C, Stallcup M, et al. PinPlay:A framework for deterministic replay and reproducible analysis of parallel programs[C]//Proceedings of the IEEE/ACM International Symposium on Code Generation and Optimization. New York, USA:IEEE Computer Society, 2010:2-11. |
[17] | Journal of Central South University(Science and Technology), 41(2):649-654.-->Bach M, Charney M, Cohn R, et al. Analyzing parallel programs with pin[J].Journal of Computer,2010, 43(3): 34–41. |