删除或更新信息,请邮件至freekaoyan#163.com(#换成@)

Dirichlet混合样本的EM算法与动态聚类算法比较*

本站小编 Free考研考试/2021-12-25

在概率统计中,Dirichlet分布是一类包含正参数向量的连续多元概率分布。现实生活中很多常见的数据都满足Dirichlet分布,例如三次产业比例结构数据,如果各个产业比例之和为1,那么就服从一个Dirichlet分布。该分布被广泛应用在比例结构数据问题当中。
对Dirichlet混合分布进行估计,并且对Dirichlet混合样本进行精确类别划分具有十分重要的意义。Fraley和Raftery[1]对一些经典的混合分布数据,例如高斯混合分布,总结了其混合模型的参数估计方法。在一系列的研究中,主要有2种不同的方法被用于解决混合模型的分解问题。
最广泛运用的一种方法是把混合分布的分解问题转化为一个估计问题,目标是估计出混合分布模型的参数,通常利用极大似然估计方法。1977年,Dempster[2]提出的最大期望(Expectation Maximization, EM)算法便是解决此类问题的基础优化算法。在此基础上,多种针对不同情形的EM算法的更新版本或适应版本被陆续提出,包括Celeux和Govaert[3-4]提出的随机EM(Stochastic EM, SEM)算法、分类EM(Classification EM,CEM)算法、Tanner和Wong[5]提出的蒙特卡罗EM(Monte Carlo EM, MCEM)算法,以及Render[6]提出的一些其他版本,更多具体内容介绍可以参考Peel和McLachlan[7]的研究。
另一种方法则是基于聚类算法的思想。这些方法考虑将包含n个观测的混合样本划分为K个类别,其中每个类别的观测都服从于一个共同的概率密度分布。这一类方法中最基础的为动态聚类算法[8-10]。Celeux和Govaert[4]正是将这类方法和EM算法的理念相融合才提出了CEM算法。
其他较为经典的方法还有迭代重定位算法[8, 11]、层次分类算法[12]、神经网络算法[13-14]、重叠分类算法(例如可加聚类算法[15]、金字塔算法[16]和函数聚类模型[17-18])。诸多近期研究还将Copula函数应用于混合模型之中[19-21]
根据对文献的整体梳理,EM算法和动态聚类算法是2种处理混合分布问题的核心方法。然而,已有研究大多针对的是高斯分布等经典分布类型,其分布形式较为简单。而对于Dirichlet混合分布的研究少有提及,然而这类分布在处理比例结构数据时具有重大价值。因此,本文提出Dirichlet混合样本的EM算法和动态聚类算法,并通过数字仿真实验对2种算法的效果进行了比较,从而总结出2种算法各自的优势及其适用的情形。
1 两种机器学习聚类算法 令随机向量p=[p1, p2, …, pK]的各个元素值都大于0且总和为1,这样pk(k=1, 2,…, K)就代表第k项的比例。在具有参数向量α的Dirichlet分布中,p的概率密度为
(1)

式中:pk>0,且
1.1 Dirichlet混合样本的EM算法 在统计领域中,EM算法通常被用来寻找依赖于不可观察的隐性变量的概率模型中参数的最大似然估计,是一种迭代算法。其在高斯混合模型中已经得到了广泛的应用。由于Dirichlet分布较为复杂,EM算法在Dirichlet混合分布中的应用较少。接下来,将介绍Dirichlet混合样本的EM算法推导过程。
x=[x1, x2, …, xn]为一个Dirichlet混合样本,该样本数据由m个Dirichlet分布产生,每个Dirichlet分布包含k个参数。令z=[z1, z2, …, zn]为隐藏的类别标签变量,该标签决定了观测与Dirichlet分布的对应关系。因此,有
(2)

式中:类别参数c=1, 2, …, mP(zi=c)=τc
本文目标是估计出Dirichlet混合分布的未知参数θ=(τc, αcj), c=1, 2, …, m; j=1, 2, …, k
对于该Dirichlet混合样本,其完整数据的似然函数为
(3)

式中:αc=[αc1, αc2, …, αck]为第c类样本的Dirichlet参数向量; I为指示性函数。
结合Dirichlet分布的概率密度函数:
(4)

可以得到全数据对数似然函数,即
(5)

在E步中,已知第t次迭代得到的参数估计值θ(t)zj的条件分布可以按照贝叶斯定理得到,其计算公式为
(6)

此外,计算完整数据对数似然函数的期望Q
(7)

可以看出,τcαcj出现在Q的不同线性项中,因此可以分别通过极大化求导,得出迭代估计值,这也是M步的主要内容。
在M步中,与其他混合分布模型相同,权重参数τc的计算公式为
(8)

而对于参数(αc1, αc2, …, αck),其估计值的更新公式为
(9)

对于混合模型中的每一个Dirichlet分布,可以得到k个包含k个参数的方程,通过求解联立方程组,就可以得到每个Dirichlet分布参数(αc1, αc2, …, αck), c=1, 2, …, m的估计值。
ε为精度参数,当Ez|x, θ(t)[lg L(θ(t); x, z)]-Ez|x, θ(t-1)[lg L(θ(t-1); x, z)]≤ε时,迭代过程终止。
Dirichlet样本的EM算法的计算过程可以归纳为如下4个步骤:
步骤1??随机初始化Dirichlet分布参数α(0)和权重参数τ(0)。同时,设置精度参数ε
步骤2??根据式(6)和式(8),计算出τ(1)
步骤3??计算函数Q。通过式(7)和式(9),可得到Dirichlet分布参数下一步估计α(1)。计算Ez|x, θ(t)[lg L(θ(t); x, z)]-Ez|x, θ(t-1)[lg L(θ(t-1); x, z)],与ε进行比较。
步骤4??重复进行步骤2和步骤3,直到迭代到第t次时,2次期望对数似然函数值之差小于精度参数值,即Ez|x, θ(t)[lg L(θ(t); x, z)]-Ez|x, θ(t-1)[lg L(θ(t-1); x, z)] < ε,此时迭代达到了终止条件,计算过程结束。
1.2 Dirichlet混合样本的动态聚类算法 动态聚类是一种快速估计出样本观测所属类别的常用方法。它的核心思想是在初始化观测所属类别后,通过计算似然值进行逐步迭代,不断更新观测类别和类分布参数,直到迭代收敛。接下来,本文将给出Dirichlet样本的动态聚类算法。
给定一个Dirichlet混合样本,样本包含n个独立观测x=[x1, x2, …, xn],这些观测来自m个Dirichlet分布。每一步迭代过程的目的是估计出每个Dirichlet概率密度函数的参数,使得按照该类别划分计算得到的聚类准则参数例如似然值达到最优。
对于每个类别,需要估计其分布参数(αc1, αc2, …, αck)。得到m个Dirichlet概率密度函数后,可以计算出每个观测的m个概率密度值。通过极大化联合概率密度,每个观测被归为不同的类别。这个过程得到了一个新的类别划分。动态聚类则是重复该过程直至对数似然函数达到收敛临界值。对数似然函数方程为
(10)

式中:pc为每个类别的权重;fc(·)为每个类别的Dirichlet密度函数。
Dirichlet样本的动态聚类算法的计算过程可以归纳为如下4个步骤:
步骤1??随机初始化原始观测的类别划分。将x=[x1, x2, …, xn]划分为m个类别,得到类别划分C(0)=[C1(0), C2(0), …, Cm(0)]。
步骤2??根据m个类别中每一类别的观测,分别估计出m个Dirichlet密度函数f1(0)(·), f2(0)(·), …, fm(0)(·)的参数值。然后计算这一步的对数似然函数值。
步骤3??对于每一个观测xi,代入到m个Dirichlet密度函数中,得到f1(0)(xi), f2(0)(xi), …, fm(0)(xi)。然后将观测划分到Dirichlet密度值最大的类别。遍历n个观测后,得到新的类别划分C(1)=[C1(1), C2(1), …, Cm(1)]。
步骤4??重复步骤2和步骤3,当2次迭代过程的对数似然函数值之差的绝对值|LL(s)-LL(s-1)| < ε时,动态聚类算法终止。其中,ε为预设的精度参数。
2 数字仿真实验 本节将生成Dirichlet混合样本,并运用提出的Dirichlet EM算法和动态聚类算法分别对混合样本进行聚类,然后比较2种算法聚类效果。仿真实验过程的实现全部基于R统计分析软件。
2.1 仿真数据的生成 为了便于计算,生成样本量为1 000的Dirichlet样本,样本中的每个观测为一个二维向量,向量元素值介于0到1之间,且各元素之和为1。并且1 000个观测分别源自2个不同的类别C1C2C1包含300个观测,而C2包含700个观测。此外,C1C2分别满足不同的Dirichlet分布,其中xiC1~Dir(2, 3),xjC2~Dir(7, 4)。精度参数ε=0.001,即当2次迭代的对数似然函数值之差小于0.001时,算法终止。
2.2 评价指标 共提出6个评价指标用于2种算法的比较。第1个指标为对数似然函数值,该指标衡量不同迭代次数间对原始样本拟合水平的差异。第2个指标为程序运行时间,第3个指标为收敛迭代次数,这2个指标共同衡量算法的运行效率。运行时间越短,迭代次数越少,则算法的运行效率越高。第4个指标为聚类正确率,用于衡量2种算法得到的类别划分结果与真实类别划分结果的一致程度,正确率越高,则与真实类别的一致程度越高。这里需要指出的是EM算法实质上是一种模糊聚类算法,它给出的是每一个观测属于各个类别的概率值,概率值大小反映观测属于该类别的倾向大小。因此,用EM算法进行类别划分,默认的前提假设是将每个观测归到概率值最大的类别。最后2个指标为真正率(True Positive Rate, TPR)和假正率(False Positive Rate, FPR),用以检测非平衡二分类样本中正负样本的识别效率。TPR为正确预测的正样本占所有正样本的比例,该指标值越大越优。FPR为被错分为正样本的负样本占所有负样本的比例,该指标值越小越优。
2.3 仿真实验过程 一共设计2个数字仿真实验,第1个仿真实验比较2种机器学习算法在单个Dirichlet混合样本中的聚类效果,第2个仿真实验则通过多次重复实验,削弱偶然因素影响,进而比较2种算法的聚类效果。具体操作如下:
1) 仿真实验一
按照2.1节的描述生成一个样本量为1 000的Dirichlet混合样本,其中300个观测满足Dirichlet分布Dir(2, 3),剩余700个观测满足Dirichlet分布Dir(7, 4),然后比较EM算法和动态聚类算法在6个评价指标上的效果。
2) 仿真实验二
按照仿真实验一,生成100个Dirichlet混合样本,并重复仿真实验一100次,然后计算100次实验得到的6个评价指标的平均值。对于每次仿真实验,2种算法都应用于同一个Dirichlet混合样本。
3 结果与讨论 首先,比较仿真实验一各评价指标的结果。图 1分别展示了EM算法和动态聚类算法的对数似然函数曲线随迭代次数的变化情况。
图 1 EM算法与动态聚类算法在300次迭代过程中的对数似然函数曲线 Fig. 1 Log-likelihood function curves of EM algorithm and dynamical clustering algorithm during 300 times of iteration
图选项




EM算法与动态聚类2种算法的对数似然函数曲线都呈现单调递增趋势。300次迭代终止时,动态聚类算法对数似然函数值为239.36,EM算法的对数似然函数值为304.15。此外,二者的迭代次数也不同,EM算法运行了190次后达到收敛精度,而动态聚类算法只经过13次迭代后就达到所需要的收敛精度。
在程序运行时间上,EM算法一次迭代平均耗时为0.022 s,而动态聚类一次迭代平均耗时为0.068 s。但是,由于达到预设精度所需要的迭代次数不同,当达到迭代终止条件时,EM算法需要3.61 s的运行时间,而动态聚类算法具有更优的效果,只需要1.19 s运行时间。
对于类别划分结果,表 1展示了2种算法的聚类结果。根据表中结果,计算出EM算法的正确率为79.9%,而动态聚类算法的正确率为69.4%。这表明EM算法的整体预测准确性要优于动态聚类算法。
表 1 2种算法的聚类结果 Table 1 Clustering results of two algorithms
算法 真实类别 仿真类别
1 2
EM算法 1 172 128
2 73 627
动态聚类算法 1 235 65
2 241 459


表选项






C1为正样本,计算出EM算法的TPR和FPR分别为57.3%和10.4%,而动态聚类算法的TPR和FPR分别为78.3%和34.4%。这表明2种算法呈现出不同的聚类特征。EM算法的FPR更小,对C2具有相对更佳的识别效率,而动态聚类的TPR更大,对类别1具有相对更佳的识别效率。
接下来,生成100个Dirichlet混合样本,对于每个样本分别进行第1个仿真实验,得到100组仿真实验结果。为了比较2种算法,分别计算各评价指标的100次仿真平均值,结果见表 2
表 2 仿真实验二两种算法的结果比较 Table 2 Comparison of two algorithms' results for the second simulation experiment
评价指标 EM算法 动态聚类算法
程序运行时间/s 2.106 1.390
收敛迭代次数 121.51 20.25
聚类正确率/% 80.5 71.3
TPR/% 59.9 77.3
FPR/% 8.6 31.1


表选项






表 2可以看出,在程序运行时间、收敛迭代次数和TPR 3个指标上,动态聚类算法的表现要优于EM算法,而对于聚类正确率和FPR 2个评价指标,EM算法表现更优。这一结论表明,针对Dirichlet混合样本,动态聚类算法能够快速给出样本类别划分结果,但是聚类正确率稍有牺牲,而在时间要求较为宽松的情况下EM算法则能够给出更加精确的类别划分结果。此外,EM算法的平均对数似然函数值为289.22,而动态聚类算法的平均对数似然函数值为214.83。
进一步比较2种算法的TPR与FPR指标,基本与仿真实验一的结果保持一致。EM算法的FPR较小,表明第2类样本被错误预测为第1类的情况越少,即对类别2的识别效率更优。而动态聚类算法的TPR较大,表明被正确预测的第1类样本更多,即对类别1的识别效率更优。
在达到收敛所需的迭代次数分布上,EM算法与动态聚类算法二者都呈现出正偏态特征,如图 2所示。这表明在多次重复实验中,少数实验的随机参数初始值与最优值偏离较大,从而降低了算法优化效率,使得迭代次数增加,程序运行时间变长。根据仿真实验结果,以随机初始值与真实值的绝对距离为评价指标,比较迭代次数处于前25%与后25%的仿真实验在该指标上的差异。计算结果表明,在EM算法中前者的该项指标比后者要高出29.2%,在动态聚类算法中要高出10.9%。即迭代随机初始值离真实值偏差较大时,算法需要更多的迭代次数才能达到收敛状态。
图 2 EM算法与动态聚类算法的迭代次数直方图 Fig. 2 Histogram of iteration times for EM algorithm and dynamical clustering algorithm
图选项




但是,整体上EM算法的迭代次数集中在0~200,而动态聚类算法的迭代次数集中在10~20,后者的计算效率明显高于前者。需要说明的是,EM算法和动态聚类算法都是局部优化算法,最终聚类结果对各观测初始类别设定有较强的依赖,并且2种算法对各个参数的随机初始值也较为敏感。因此,在使用过程中,建议多次实验,每次进行不同的参数初始化设置,再根据轮廓系数等评价指标选取理想的聚类结果。
4 结论 本文针对分布形式较为复杂的Dirichlet混合样本,提出了2种聚类算法的应用,分别为EM算法和动态聚类算法,并给出EM算法的数学推导过程以及2种算法的迭代流程。
1) 仿真实验结果表明,EM算法聚类正确率更高但是运算效率相对较低,而动态聚类算法运算效率较高但是损失了部分正确率。因此在实际运用过程中,需要根据运算环境以及精度等客观需求,选取合适的算法对样本进行聚类。如果对结果的准确度要求较高,则使用EM算法;如果对运算速度要求较高,则使用动态聚类算法。
2) 需要指出的是, EM算法和动态聚类算法作为局部优化算法,对迭代初始值具有较强的敏感性,因此在算法运行过程中,建议多次运行选取效果较好的一次作为最终结果,聚类效果评价可参考轮廓系数、组间离差平方和、组内离差平方和等指标。
另外,现实情况下,不同观测之间往往具有一定的相关性,未来研究考虑将2种算法拓展到非独立Dirichlet分布情形之中。

参考文献
[1] FRALEY C, RAFTERY A E. Model-based clustering, discriminant analysis, and density estimation[J]. Publications of the American Statistical Association, 2002, 97(458): 611-631. DOI:10.1198/016214502760047131
[2] DEMPSTER A P. Maximum likelihood from incomplete data via the EM algorithm[J]. Journal of Royal Statistical Society B, 1977, 39(1): 1-38.
[3] CELEUX G, GOVAERT G. Stochastic algorithms for clustering[M]. Heidelberg: Physica-Verlag, 1990.
[4] CELEUX G, GOVAERT G. A classification EM algorithm for clustering and two stochastic versions[J]. Computational Statistics & Data Analysis, 1992, 14(3): 315-332.
[5] TANNER M A, WONG W H. The calculation of posterior distributions by data augmentation[J]. Publications of the American Statistical Association, 1987, 82(398): 528-540. DOI:10.1080/01621459.1987.10478458
[6] RENDER E. Mixture densities, maximum likelihood and the EM algorithm[J]. SIAM Review, 1984, 26(2): 195-239. DOI:10.1137/1026034
[7] PEEL D, MCLACHLAN G J. Robust mixture modelling using the t distribution[J]. Statistics and Computing, 2000, 10(4): 339-348. DOI:10.1023/A:1008981510081
[8] DIDAY E, SCHROEDER A, OK Y.The dynamic clusters method in pattern recognition[C]//Proceedings of International Federation for Information Processing Congress, 1974: 691-697.
[9] SCOTT A J, SYMONS M J. Clustering methods based on likelihood ratio criteria[J]. Biometrics, 1971, 27(1): 387-397.
[10] SYMONS M J. Clustering criteria and multivariate normal mixtures[J]. Biometrics, 1981, 37(1): 35-43. DOI:10.2307/2530520
[11] WONG M A, LANE T. A kTH nearest neighbour clustering procedure[J]. Journal of the Royal Statistical Society, 1981, 45(3): 362-368.
[12] BROSSIER G. Piecewise hierarchical clustering[J]. Journal of Classification, 1990, 7(2): 197-216. DOI:10.1007/BF01908716
[13] BISHOP C M. Neural networks for pattern recognition[M]. Oxford: Oxford University Press, 1995.
[14] BOCK H H.Clustering and neural networks[M]//RIZZI A, VICHI M, BOCK H H.Advances in data science and classification.Berlin: Springer, 1998: 265-277.
[15] ARABIE P, CARROLL J D. Mapclus:A mathematical programming approach to fitting the adclus model[J]. Psychometrika, 1980, 45(2): 211-235. DOI:10.1007/BF02294077
[16] DIDAY E.An intuitive form of expression: Pyramids[D].Paris: INRIA, 1984.
[17] JAMES G M, SUGAR C A. Clustering for sparsely sampled functional data[J]. Publications of the American Statistical Association, 2003, 98(462): 397-408. DOI:10.1198/016214503000189
[18] WINSBERG S, SOETE G D. Latent class models for time series analysis[J]. Applied Stochastic Models in Business & Industry, 1999, 15(15): 183-194.
[19] VRAC M, BILLARD L, DIDAY E. Copula analysis of mixture models[J]. Computational Statistics, 2012, 27(3): 427-457. DOI:10.1007/s00180-011-0266-0
[20] KOSMIDIS I, KARLIS D. Model-based clustering using copulas with applications[J]. Statistics and Computing, 2016, 26(5): 1079-1099. DOI:10.1007/s11222-015-9590-5
[21] MARBAC M, BIERNACKI C, VANDEWALLE V. Model-based clustering of Gaussian copulas for mixed data[J]. Communications in Statistics-Theory and Methods, 2017, 46(23): 11635-11656. DOI:10.1080/03610926.2016.1277753


相关话题/观测 实验 指标 计算 概率

  • 领限时大额优惠券,享本站正版考研考试资料!
    大额优惠券
    优惠券领取后72小时内有效,10万种最新考研考试考证类电子打印资料任你选。涵盖全国500余所院校考研专业课、200多种职业资格考试、1100多种经典教材,产品类型包含电子书、题库、全套资料以及视频,无论您是考研复习、考证刷题,还是考前冲刺等,不同类型的产品可满足您学习上的不同需求。 ...
    本站小编 Free壹佰分学习网 2022-09-19
  • 基于深度学习的无人机数据链信噪比估计算法*
    地-空数据链作为无人机系统的重要组成部分,发挥着发送上行遥控指令和回传遥测侦察信息等重要作用[1]。信噪比(Signal-to-NoiseRatio,SNR)是评价无人机通信系统信道环境和通信质量的重要指标,精确的信噪比估计既可以为无人机数据链提供功率控制、信道分配所需要的信息,又可以促使数据链系统 ...
    本站小编 Free考研考试 2021-12-25
  • 304不锈钢两相流冲蚀腐蚀的实验研究*
    材料表面的冲蚀磨损通常是由坚硬固体颗粒的冲击引起的,在中国西北等军用实验环境下,沙尘环境中的颗粒[1]对军用设备及直升机部件、机载设备的性能会造成严重影响。不锈钢材料常用于飞机的机身主梁、驱动装置、起落架等关键承力结构部件[2],在水陆两栖飞机执行特殊任务模式时,如长期在高温、高湿、高盐、海上任务等 ...
    本站小编 Free考研考试 2021-12-25
  • 小通道并联管干涸热动力学特性实验*
    小通道的结构紧凑,单位面积传热效率高,具有体积小、质量轻、密封性好的优点。因此,小通道沸腾传热特性被越来越多不同领域的****所关注,在航空航天、核反应堆、燃料电池等散热量大的设备中都有涉及。其中,小通道在解决航空航天器发动机散热冷却问题上展现出极大的优势[1-3]。小通道内的沸腾传热可以分为过冷沸 ...
    本站小编 Free考研考试 2021-12-25
  • 静电传感器测量固体颗粒质量流量实验研究*
    在高温高压等极端条件下,航空发动机气路中的机械部件容易磨损并发生故障,对气路中的固体颗粒质量流量进行实时监测,有助于获得气路部件的状态信息[1-3]。此外,航空发动机排放物中固体颗粒含量反映了发动机内燃料的成分及其燃烧情况,检测颗粒物生成量对监控发动机工作性能提供重要的信息。一部分航空发动机气路和尾 ...
    本站小编 Free考研考试 2021-12-25
  • CFRP旋转超声辅助钻削的缺陷抑制机理及实验研究*
    碳纤维增强树脂基复合材料(CarbonFiberReinforcedPlastics,CFRP)与金属材料相比,因具有强度高且质量轻、耐蚀性好以及疲劳强度优异等极其出色的综合性能,被广泛应用于现代航空航天领域,其在飞机中所占的比重,更成为衡量飞机综合性能的重要指标[1-4]。在美国最新型的F-35战 ...
    本站小编 Free考研考试 2021-12-25
  • 沉积环境下气膜冷却效率的实验*
    在燃气涡轮发动机的整个寿命期间,涡轮叶片会受到污染物的沉积、侵蚀和腐蚀。这些污染物来自吸入的杂质(沙子、火山灰等等),以及燃料燃烧产生的杂质和灰分颗粒。沉积是导致涡轮机叶片冷却性能降低的主要原因之一,在紧接燃烧室下游的第一级高压涡轮静叶上是最显著的,由于这是涡轮部件的最高温度区域,因此污染物颗粒在该 ...
    本站小编 Free考研考试 2021-12-25
  • 液氮温区平板蒸发器环路热管实验研究*
    深低温环路热管是一种深低温热传输器件,其应用主要面向空间深冷热控制系统。近年来,深空探测、天文观测等宇航任务持续发展,越来越多的航天器载荷需要深低温工作环境,其中空间红外天文望远镜以及其他先进探测器和光学系统的工作温度都低于80~120K。随着探测器功率及工作温度要求的提高,空间低温环境的制冷器件逐 ...
    本站小编 Free考研考试 2021-12-25
  • 基于代理模型的制导火箭炮发射诸元计算方法*
    作为陆军主要远程压制武器,远程精确制导火箭炮是炮兵对敌远程精确打击的主要力量。在现代及未来战争中,提高火箭炮自身的生存能力至关重要,其中缩短发射准备时间以提高其快速反应能力是最重要的方向之一。因此,在保证一定精度的前提下,研究发射诸元快速计算问题显得尤为重要。在制导火箭炮发射前必须对其发射诸元进行快 ...
    本站小编 Free考研考试 2021-12-25
  • 一种平均矩独立重要性指标及其拒绝抽样方法*
    结构安全分析包含2个主要问题:可靠性分析[1]和重要性分析[2]。其中,可靠性分析意在估算结构系统的可靠度,而重要性分析则旨在考量输入变量对结构系统输出响应的影响程度。重要性分析主要研究输出不确定性向输入不确定性的逆向分配问题,一般包含2种,即局部重要性分析和全局重要性分析。其中,局部重要性分析定义 ...
    本站小编 Free考研考试 2021-12-25
  • 面向气热耦合的涡轮叶片计算域模型建模方法*
    推重比是航空发动机重要性能参数,提高涡轮前燃气温度是提高推重比有效措施[1]。由于涡轮前燃气温度已远高于叶片常用材料的耐受温度,为保证叶片安全工作及寿命要求,在结构设计中普遍采用复合冷却技术对叶片进行冷却,这使得涡轮叶片结构复杂[2]。准确预测涡轮叶片的温度场是提高冷却效率、延长叶片工作寿命的关键[ ...
    本站小编 Free考研考试 2021-12-25