删除或更新信息,请邮件至freekaoyan#163.com(#换成@)

GMSDenseNet:基于组多结构卷积的轻量级DenseNet

本站小编 Free考研考试/2020-03-23

于长永, 何鑫, 祁欣, 马海涛
东北大学秦皇岛分校 计算机与通信工程学院,河北 秦皇岛 066004
收稿日期:2019-03-10
基金项目:国家自然科学基金资助项目(61772124, 61332014, 61401080, 61402087);河北省自然科学基金资助项目(F2015501049);河北省教育厅项目(QN2014339);中央高校基本科研业务费专项资金资助项目(N150402002)。
作者简介:于长永(1981-),男,辽宁海城人,东北大学副教授。

摘要:提出了一种简单且高效的轻量级DenseNet模型,优化了原DenseNet模型中存在的参数冗余以及高额浮点运算数(FLOPs)的问题.首先,分析了现有流行的卷积计算单元的细节以及特性,其次,应用具有良好特性的卷积单元组合来设计组多结构卷积单元,构建轻量级DenseNet模型,进一步分析了该模型与原DenseNet模型的复杂度.通过实验结果给出所构建网络结构的最优配置,并得到使用DenseNet-40模型约18.8%的FLOPs以及28.4%的模型参数的情况下,准确率仅下降≤0.4%的结果.
关键词:组卷积深度可分离卷积组多结构卷积单元轻量级DenseNet
GMSDenseNet:Lightweight DenseNet Based on Group Multi-structure Convolution
YU Chang-yong, HE Xin, QI Xin, MA Hai-tao
School of Computer and Communication Engineering, Northeastern University at Qinhuangdao, Qinhuangdao 066004, China
Corresponding author: HE Xin, E-mail:hx_neu@126.com.

Abstract: A simple and efficient lightweight DenseNet model was proposed, which optimized the parameter redundancy and high FLOPs(floating point operations) in the original DenseNet model. Firstly, the details and characteristics of existing popular convolutional computing units were analyzed. Secondly, the convolutional unit combination with good characteristics was applied to design the multi-structure convolution unit which was used to construct the lightweight DenseNet model. The complexity of this lightweight model and the original DenseNet model was further analyzed. The optimal configuration of the constructed network structure was given according to the experimental results. The results of using the DenseNet-40 model with about 18.8% of FLOPs and 28.4% of the model parameters are obtained, and the accuracy is only reduced by 0.4% at most.
Key words: group convolutiondepth separable convolutiongroup multi-structure convolution unitlightweightDenseNet
卷积神经网络广泛应用在计算机视觉领域中,并在多种任务场景中取得了优异的结果,如图像识别[1]、目标检测[2]、场景分割[3]等.在视觉识别任务中,自从AlexNet[4]在ImageNet挑战赛中取得了惊人的成绩后,卷积神经网络模型在取得越来越好性能的同时,模型的复杂度也越来越高,大多数取得好的准确率的卷积神经网络模型都需要庞大的参数和计算花费,如ImageNet和COCO挑战赛的优胜者在设计模型时多数忽略了模型使用的计算资源的限制.举个例子,在ImageNet12挑战赛中获得冠军的VGG16[5]模型,其分类一张图片需要高达1.28亿参数以及153亿浮点运算数(floating point operations,FLOPs)的计算资源花费,这在许多需要实时但计算资源有限的应用中,如自动驾驶、移动电话、嵌入式设备等,是很难部署的.
近年来,越来越多的工作关注到这个问题上,解决方案总的来说分为三种策略,分别是修剪掉模型结构中冗余的参数、使用低秩或更具质量的过滤器、设计更有效的模型结构.对于第一种策略,现有的工作展示了在卷积神经网络模型结构中存在许多冗余参数,这种策略通常是加载预训练模型,通过某种规则或者约束来对模型结构进行剪枝,丢弃掉不满足规则或者约束的连接,之后对剪枝后的模型进行微调.剪枝中常用的规则或约束包括连接中权重低于某一阈值、神经元传播重要分数等.剪枝策略在逐层连接模型结构上展现出好的性能,但文献[6]指出在诸如Resnet[7]和DenseNet[8]网络结构上剪枝的效果不如从头开始训练原始网络的小版本好.第二种策略大多数是基于传统的压缩技术,如量化和二进制化、哈夫曼编码等.这些在数据科学中有良好表现的技术成功应用在卷积神经网络中,并取得了不错的性能.然而文献[9]认为这类策略可能存在过度损失精度或者在运算速度上无明显压缩.第三种策略通常使用更加紧凑的过滤器以及更加有效的拓扑结构来组建轻量级的卷积神经网络以降低计算成本和模型参数,使用的技术包括将大的过滤器尺寸变为小的过滤器尺寸(11×11或7×7的卷积核由3×3或1×1卷积核代替)、卷积结构使用深度可分离卷积替换正常卷积、拓扑结构由逐层连接发展为跳跃连接等.
DenseNet所采用的为第三种策略来构建拓扑结构,提出了一种有效的密集连接拓扑结构.虽然该模型使用的FLOPs和模型参数已经较其他模型有了很大程度的降低,但是仍有降低参数冗余以及减少FLOPs的可能性.为了优化这些问题,本文采用第三种策略提出了一个简单且有效的轻量级卷积神经网络模型,命名为GMSDenseNet,该拓扑结构将输入的特征图基于通道层面随机分割为成比例的两部分,这两部分分别做深度可分离卷积和组卷积,形成组多结构卷积单元,并采用密集连接将所有的组多结构卷积单元连接起来,构成卷积神经网络.该网络可以有效地在GPUs上训练并使用较少的计算资源,实验结果表明,GMSDenseNet模型在使用了DenseNet-40模型约18.8%的FLOPs以及28.4%的模型参数的情况下,准确率仅下降≤0.4%.
1 GMSDenseNetDenseNet虽然在图像识别任务中有着良好的性能,但是该网络拓扑结构使用高额的FLOPs以及庞大的参数,其原始结构的各构成组件如图 1中A部分所示.本文将其DenseBlock中的正常卷积用由深度可分离卷积和组卷积构成的组多结构卷积单元替代,以降低其计算资源.
图 1(Fig. 1)
图 1 DenseNet与GMSDenseNet结构示意图Fig.1 DenseNet and GMSDenseNet structure diagram

1.1 组多结构卷积单元深度可分离卷积和组卷积在许多深度卷积神经网络中有着很好的适应性.这两种卷积均可以有效地降低计算花销.本文采用将这两种卷积以一定比例组成多结构卷积单元来替换正常卷积,同时对输入的特征图在进入到组多结构卷积单元前进行通道混洗[10](channel shuffle),该操作采用的是将权重矩阵转置后做平滑处理,再重构为与原权重矩阵维度相同的重排权重矩阵,这一操作是可微的并且没有引入任何参数,所带来的FLOPs与卷积操作庞大的FLOPs相比是微不足道的;随后将混洗后的特征图按比例分成两部分,分别做深度可分离卷积以及组卷积,其中,深度卷积使用的过滤器尺寸大小为3×3,组卷积采用1×1瓶颈层与3×3组卷积的组合.将两部分得到的输出特征图进行通道层面的合并操作,这构成了一个组多结构卷积单元.组多结构卷积单元首先要进行通道混洗,因为若没有这一操作,随后的组多结构卷积单元总会有一部分过滤器是在学习相同的特征,并有可能放大组卷积间无共享信息的不足,这会极大地影响特征的表征.将输入的特征图混洗,会很大程度上避免这一问题.组多结构卷积单元的拓扑结构如图 2所示.
图 2(Fig. 2)
图 2 组多结构卷积单元Fig.2 Group multi-structure convolution unit

1.2 网络拓扑结构除了1.1节中所提到的组多结构卷积单元,GMSDenseNet还包括转换层以及混合链路连接.转换层的本质是为了改变特征图的尺寸,所采用的技术为下采样,同时也将网络的拓扑结构划分为不同的GMSDenseNet Block.该层中的操作包括一个1×1的组卷积层以及一个2×2的平均池化层,这一设计也促使了在进入到组多结构卷积单元的特征图需要进行混洗.混合链路连接类似于文献[11]中所提出的连接方式,但不同的是本文所使用的混合链路连接是由不同卷积在各自卷积输出的特征进行的元素层面加操作,之后再进行通道层面合并操作,这样可以在增加特征图所表征的同时激励图像信息的重用,GMSDenseNet结构的各构成组件如图 1中B部分所示.
1.3 复杂度分析为了直观地阐述GMSDenseNet模型较DenseNet模型使用更少的参数和FLOPs,假设卷积操作的输入为M张大小为H×W的特征图,经过kH×kW大小的过滤器逐像素计算,得到N张具有适当填充的与输入特征图尺寸相同的输出特征图.因此,DenseNet的一个卷积层所使用的参数数量为kH×kW×M×N, 所使用的FLOPs为kH×kW×M×N×H×W.而GMSDenseNet模型的组多结构卷积单元是采用组卷积与深度可分离卷积相结合来构成的“卷积层”,采用能被输入特征图张数M整除的mn作为比例配置来分配M张输入特征图分别进入到组卷积和深度可分离卷积,则深度可分离卷积所使用的参数数量为
所使用的FLOPs为
组多结构卷积单元中的深度可分离卷积在深度卷积之后之所以不适用逐点卷积,是由于网络拓扑结构采用的是密集连接,这使得网络中的深层会出现MN的几十倍,逐点卷积本质是通道的线性组合变化,这将会放大有限的通道间的约束,而采用小尺寸的过滤器,将使通道间的组合变化更多元化,降低约束以使得通道所表征的特征信息更丰富.
而组卷积中每一个分组的正常卷积之前均有一个1×1卷积的瓶颈层,其目的是为了降低维度,其输出的特征图的张数固定为组卷积输出特征图张数的K倍(本文采用与文献[12]的bottleneck相同的数值, K=4).那么在瓶颈层之前的分组数取为g1,之后的分组数取为g2,因此组卷积使用的参数数量为
其中g1, g2分别能被整除,使用的FLOPs为
因此组多结构卷积单元的复杂度为两者之和.根据DenseNet-40的配置,取其dense block1首层卷积及dense block3末层卷积的输入输出特征图数量,两种结构/单元所使用的具体参数数量和FLOPs如表 1所示.
表 1(Table 1)
表 1 卷积层/单元参数及FLOPsTable 1 Convolution layer/unit parameters and FLOPs
模型 参数数量FLOPs
首层 末层 首层 末层
DenseNet-40 3 888 49 248 3 981 312 3 151 872
GMSDenseNet 2 574 18 114 2 635 776 1 135 104


表 1 卷积层/单元参数及FLOPs Table 1 Convolution layer/unit parameters and FLOPs

其中首层的配置为{M=36, N=12, H=32, W=32, kH=3, kW=3},末层的配置为{M=456, N=12, H=8, W=8, kH=3, kW=3},对于GMSDenseNet模型,具体配置为{m=1, n=2, g1=2, g2=3}.由表 1的结果可以看出,随着网络的加深,多结构卷积单元所使用的参数数量及FLOPs由首层卷积操作的66.2%降低到末层卷积操作的36.8%,呈下降趋势.
2 实验结果与分析2.1 实验环境及数据集在Cifar-10数据集上的图像分类任务中评估本文提出的GMSDenseNet模型结构.所有的实验均在具有160 GB RAM的Intel XeonE5-2640服务器的单CPU核心(2.40 GHz)上实现,操作系统为CentOS 7.4.1708.两块NVIDIA K40 GPU用于CNN计算.
Cifar-10数据集[13]是由10种尺寸大小为32像素×32像素的彩色自然图片组成的,该数据集的训练子集以及测试子集分别由50 000张图片和10 000张图片构成.本文采用标准数据增强方案(镜像/位移)来对这两种数据集进行预处理,同时使用图像通道层面的均值和方差对数据进行标准化.
2.2 实验结果与分析2.2.1 模型配置GMSDsenetNet每层增加的特征图数量与DenseNet所使用的增长率k=12是一致的,将进入到组多结构卷积单元的输入特征图以不同的比例配置分配给组卷积和深度可分离卷积.发现组多结构卷积单元中组卷积的比例高于深度可分离卷积单元,如图 3中比例配置为2:1的情况下,模型不但使用较少的参数数量并且有较高的准确率.
图 3(Fig. 3)
图 3 不同比例配置的参数数量及准确率Fig.3 Number and accuracy of parameters for different ratio configurations

而且由图 4所得到的结果表明,当模型使用的组卷积比例高于深度可分离卷积时,模型在每次训练的迭代过程中以及测试过程中所花费的时间也相应降低,这是由于深度可分离卷积中深度卷积部分的计算较为零散,现有的计算硬件对其计算效率不高.因此在设计模型结构时采用的组卷积比例高于深度可分离卷积.
图 4(Fig. 4)
图 4 一个epoch下不同比例配置的训练及测试时间Fig.4 Training and test time for different ratio configurations under one epoch

对于组卷积部分,为了增加所学习到的特征中包含的图像信息,使用两个组卷积来进行特征学习,每个组卷积使用3个分组.对于组多结构卷积单元,除了瓶颈层使用BN-ReLU转换和1×1卷积尺寸,其余层均使用BN-ReLU转换和3×3卷积尺寸.GMSDenseNet共有3个Block,每个Block中有16个组多结构卷积单元,转换层所使用的组卷积分组个数为增长率因数子集中的中位数,即Gt=4.同时为了避免转换层的输出特征图通道数量在进入到下一个Block中的组多结构卷积单元不匹配问题,本文对转换层的输出通道数量作出如下约束:当输入通道数量的一半仍可以被分配比例配置整除时,输出通道数量就为输入通道数量的一半,当不能被整除时,输出通道数量为输入通道数量的一半与余数的差.组卷积的引入会大量减少模型参数的使用并显著降低通道间的计算约束,但文献[14]指出由于特征分组会产生大量的组卷积堆叠,这会导致特征信息丢失,且通道间的特征信息交互流动也将受阻,严重影响特征表征能力.本文将文献[10]中提出的通道混洗策略引入到所提出的模型中,对比了未加入混洗操作的相同模型,表 2的实验结果说明了模型加入混洗操作未产生额外的花销,并且对于组卷积所得到的特征信息进行交互有着积极的作用.
表 2(Table 2)
表 2 有无混洗对模型的影响Table 2 Effect of shuffle on the model
模型 FLOPs×10-6 参数数量×10-6 准确率/%
GMSDenseNet有混洗 100 0.29 94.47
GMSDenseNet无混洗 100 0.29 93.94


表 2 有无混洗对模型的影响 Table 2 Effect of shuffle on the model

2.2.2 训练细节使用带有Nesterov动量的随机梯度下降来训练所提出的模型,动量值设置为0.9并且没有阻尼,权重衰减设置为0.000 1.采用64大小的批次数量来训练300轮,学习率采用从0.1开始以类似余弦波逐渐减少到0的策略.
根据表 3实验结果可以得出,所提出的GMSDenseNet模型与其他最新的CNN模型相比,如ResNet-110等,使用了20%甚至更少的模型参数,达到了相近的准确率.GMSDenseNet模型使用了DenseNet-40模型约18.8%的FLOPs以及28.4%的模型参数,准确率下降≤0.4%.该模型与在DenseNet模型上应用先进有效的剪枝技术的模型相比,如DenseNet-40-P,使用了其44.0%的参数和26.2%的FLOPs,准确率下降≤0.4%.
表 3(Table 3)
表 3 分类准确率比较Table 3 Comparison of classification accuracy
模型 FLOPs×10-6 参数数量×10-6 准确率/%
ResNet-110[7] 253 1.7 93.59
FractalNet-21[15] 38.6 94.78
CondenseNet[11] 66 0.52 94.96
DenseNet-40-P[9] 381 0.66 94.81
DenseNet-40[8] 533 1.02 94.76
GMSDenseNet 100 0.29 94.44±0.03


表 3 分类准确率比较 Table 3 Comparison of classification accuracy

3 结语本文提出一种高效简单的轻量级卷积神经网络GMSDenseNet,该网络使用组多结构卷积单元来代替正常卷积,使得该网络能在使用DenseNet-40模型约18.8%的FLOPs以及28.4%的模型参数的情况下,准确率仅下降≤0.4%.是否能够在训练阶段自动地进行输入特征图分组组数,以及如何保持或进一步提高分类图像准确率,是未来工作方向之一.
参考文献
[1] Zoph B, Vasudevan V, Shlens J, et al.Learning transferable architectures for scalable image recognition[C]//Conference on Computer Vision and Pattern Recognition.Salt Lake City, 2018: 8697-8710.
[2] Cai Z, Vasconcelos N.Cascade R-CNN: delving into high quality object detection[C]//Conference on Computer Vision and Pattern Recognition.Salt Lake City, 2018: 6154-6162. http://www.researchgate.net/publication/321512547_Cascade_R-CNN_Delving_into_High_Quality_Object_Detection
[3] Ke T W, Hwang J J, Liu Z, et al. Adaptive affinity fields for semantic segmentation[J]. Lecture Notes in Computer Science, 2018, 112(5): 605-621.
[4] Krizhevsky A, Sutskever I, Hinton G. ImageNet classification with deep convolutional neural networks[J]. Communication Association for Computing Machinery, 2017, 60(6): 84-90. DOI:10.1145/3065386
[5] Szegedy C, Liu W, Jia Y, et al.Going deeper with convolutions[C]//Conference on Computer Vision and Pattern Recognition.Boston, 2015: 1-9. http://www.oalib.com/paper/4068635
[6] Crowley E J, Turner J, Storkey A, et al.Pruning neural networks: is it time to nip it in the bud?[C]//Workshop on Neural Information Processing Systems.Montreal, 2018: 1-5.
[7] He K, Zhang X, Ren S, et al.Deep residual learning for image recognition[C]//Conference on Computer Vision and Pattern Recognition.Las Vegas, 2016: 770-778. http://www.tandfonline.com/servlet/linkout?suffix=CIT0020&dbid=16&doi=10.1080/15481603.2018.1426091&key=10.1109/CVPR.2016.90
[8] Huang G, Liu Z, Maaten L V D, et al.Densely connected convolutional networks[C]//Conference on Computer Vision and Pattern Recognition.Puerto Rico, 2017: 2261-2269. http://www.researchgate.net/publication/319770123_Densely_Connected_Convolutional_Networks?ev=prf_high
[9] Liu Z, Li J, Shen Z, et al.Learning efficient convolutional networks through network slimming[C]//IEEE International Conference on Computer Vision.Venice, 2017: 2755-2763. http://www.researchgate.net/publication/322057654_Learning_Efficient_Convolutional_Networks_through_Network_Slimming
[10] Zhang X, Zhou X, Lin M, et al.Shufflenet: an extremely efficient convolutional neural network for mobile devices[C]//Conference on Computer Vision and Pattern Recognition.Salt Lake City, 2018: 6848-6856. http://www.researchgate.net/publication/318205093_ShuffleNet_An_Extremely_Efficient_Convolutional_Neural_Network_for_Mobile_Devices
[11] Wang W, Li X, Yang J, et al.Mixed link networks[C]//Proceedings of the Twenty-Seventh International Joint Conference on Artificial Intelligence.Stockholm, 2018: 2819-2825.
[12] Huang G, Liu S, Laurens V D M, et al.CondenseNet: an efficient denseNet using learned group convolutions[C]//Conference on Computer Vision and Pattern Recognition.Salt Lake City, 2018: 2752-2761. http://www.researchgate.net/publication/321325862_CondenseNet_An_Efficient_DenseNet_using_Learned_Group_Convolutions
[13] Krizhevsky A.Learning multiple layers of features from tiny images[D].Ontario: University of Toronto, 2009.
[14] Zhang T, Qi G J, Xiao B, et al.Interleaved group convolutions for deep neural networks[EB/OL].(2017-07-18)[2019-03-10].https://arxiv.org/pdf/1707.02725.
[15] Larsson G, Maire M, Shakhnarovich G.Fractalnet: ultra-deep neural networks without residuals[C]//Conference on International Conference on Learning Representations.San Juan, 2016: 1-11. http://www.researchgate.net/publication/303520977_FractalNet_Ultra-Deep_Neural_Networks_without_Residuals

相关话题/结构 卷积

  • 领限时大额优惠券,享本站正版考研考试资料!
    大额优惠券
    优惠券领取后72小时内有效,10万种最新考研考试考证类电子打印资料任你选。涵盖全国500余所院校考研专业课、200多种职业资格考试、1100多种经典教材,产品类型包含电子书、题库、全套资料以及视频,无论您是考研复习、考证刷题,还是考前冲刺等,不同类型的产品可满足您学习上的不同需求。 ...
    本站小编 Free壹佰分学习网 2022-09-19
  • 基于语义和结构的UML类图的检索
    袁中臣1,2,马宗民11.东北大学软件学院,辽宁沈阳110169;2.沈阳工业大学化工过程自动化学院,辽宁辽阳111003收稿日期:2018-12-20基金项目:国家自然科学基金资助项目(61370075,61772269)。作者简介:袁中臣(1978-),男,辽宁辽阳人,东北大学博士研究生,沈阳工 ...
    本站小编 Free考研考试 2020-03-23
  • 卷积神经网络在MRI图像诊断中的应用
    王洋,刘积仁,赵大哲,邱道云东北大学计算机科学与工程学院,辽宁沈阳110169收稿日期:2017-11-20基金项目:辽宁省科技厅博士启动基金资助项目(L200601008)。作者简介:王洋(1981-),男,辽宁沈阳人,东北大学博士研究生;刘积仁(1955-),男,辽宁沈阳人,东北大学教授,博士生 ...
    本站小编 Free考研考试 2020-03-23
  • 大小叶盘-硬涂层阻尼结构的解析建模和振动分析
    高峰1,2,孙伟1,2,倪陈兵11.东北大学机械工程与自动化学院,辽宁沈阳110819;2.东北大学航空动力装备振动及控制教育部重点实验室,辽宁沈阳110819收稿日期:2017-11-23基金项目:国家自然科学基金资助项目(51775092);中央高校基本科研业务费专项资金资助项目(N170306 ...
    本站小编 Free考研考试 2020-03-23
  • 一种改进鱼群聚类算法在结构面分组中的应用
    王述红1,任艺鹏1,陈俊智2,张紫杉11.东北大学资源与土木工程学院,辽宁沈阳110819;2.昆明理工大学国土资源学院,云南昆明650093收稿日期:2017-11-01基金项目:国家自然科学基金资助项目(51474050);国家自然科学基金云南联合重点资助项目(U1602232);辽宁省高等学校 ...
    本站小编 Free考研考试 2020-03-23
  • 基于子结构模态综合法的重型牵引车优化设计
    李播博1,袁惠群2,王光定1,孙红运11.东北大学机械工程与自动化学院,辽宁沈阳110819;2.东北大学理学院,辽宁沈阳110819收稿日期:2018-02-08基金项目:国家自然科学基金资助项目(51775093);国家自然科学基金重点资助项目(51335003)。作者简介:李播博(1989-) ...
    本站小编 Free考研考试 2020-03-23
  • 真空渗碳炉加热系统结构优化数值模拟研究
    刘静,李家栋,王昊杰,王昭东东北大学轧制技术及连轧自动化国家重点实验室,辽宁沈阳110819收稿日期:2018-03-23基金项目:国家重点基础研发计划项目(2017YFB0306400)。作者简介:刘静(1989-),女,湖北襄阳人,东北大学博士研究生;王昭东(1968-),男,安徽淮南人,东北大 ...
    本站小编 Free考研考试 2020-03-23
  • 三维结构ZnO基乙醇气敏材料的制备及改性
    于慧敏,王硕,李祺炜,李建中东北大学冶金学院,辽宁沈阳110819收稿日期:2018-03-29基金项目:国家自然科学基金-中国宝武钢铁集团有限公司钢铁联合研究基金资助项目(U1760118)。作者简介:于慧敏(1993-),女,内蒙古通辽人,东北大学博士研究生;李建中(1976-),男,河北迁安人 ...
    本站小编 Free考研考试 2020-03-23
  • 新型四臂巡检机器人结构设计及转向越障研究
    房立金1,祝帅2,贺长林2,许继谦21.东北大学机器人科学与工程学院,辽宁沈阳110819;2.东北大学机械工程与自动化学院,辽宁沈阳110819收稿日期:2018-05-09基金项目:国家自然科学基金资助项目(51575092)。作者简介:房立金(1965-),男,辽宁沈阳人,东北大学教授,博士生 ...
    本站小编 Free考研考试 2020-03-23
  • 多孔结构对Vero White型光敏树脂力学性能的影响
    于天彪1,赵雨1,毕晓夕1,陈亚东21.东北大学机械工程与自动化学院,辽宁沈阳110819;2.东北大学中荷生物医学与信息工程学院,辽宁沈阳110169收稿日期:2018-04-16基金项目:国家工信部绿色系统集成重大专项(201675514);国家自然科学基金资助项目(51505075);沈阳市重 ...
    本站小编 Free考研考试 2020-03-23
  • 屯兰矿区含瓦斯煤微结构定量表征
    李江涛1,2,3,梁文勖2,3,贺志宏41.东北大学资源与土木工程学院,辽宁沈阳110819;2.煤科集团沈阳研究院有限公司,辽宁沈阳110016;3.煤矿安全技术国家重点实验室,辽宁抚顺113122;4.西山煤电(集团)有限责任公司,山西太原030000)收稿日期:2018-05-09作者简介:李 ...
    本站小编 Free考研考试 2020-03-23