删除或更新信息,请邮件至freekaoyan#163.com(#换成@)

基于心脏电影磁共振图像的一种新的右心室多图谱分割方法

本站小编 Free考研考试/2021-12-29

摘要:基于心脏电影磁共振图像的右心室(RV)分割, 对心脏疾病的诊疗及预后有着十分重要的意义. 右心室结构复杂, 传统图像分割方法始终未能达到较高的精度. 多图谱方法通过配准和融合来实现RV分割, 是近几年RV分割中的主要方法之一. 本文提出一种新的右心室多图谱分割方法, 能够实现RV的全自动准分割. 本文首先采用自适应仿射传播算法获取一系列图谱集, 并基于豪斯多夫距离和归一化互信息选择与目标图像最相似的图谱集; 然后, 依次采用多分辨率的仿射变换和Diffeomorphic demons算法将目标图像配准到最相似图谱集, 并将配准得到的形变场应用于标记图像获得粗分割结果; 最后, 本文采用COLLATE算法融合粗分割结果得到RV轮廓. 30例心脏电影磁共振数据被用于回顾性分析. 本文算法与放射专家手工分割的RV 相比, Dice指标和豪斯多夫距离的平均值分别为0.84, 11.46 mm; 舒张末期容积, 收缩末期容积, 射血分数的相关系数和偏差均值分别是0.94, 0.90, 0.86; 2.5113, –3.4783, 0.0341. 与卷积神经网络相比, 本文算法在收缩末期的分割精度更接近手动分割结果. 实验结果表明, 该方法从有效的图谱选择和基于多分辨率的Diffeomorphic demons算法的多级配准提高了右心室分割的精度, 有望应用于临床辅助诊断.
关键词: 心脏磁共振图像/
右心室/
多图谱分割/
微分同胚demons

English Abstract


--> --> -->
据世界卫生组织(world health organization)报道, 2016年大约有1790万人死于心血管疾病, 占全球死亡总数的31%[1]; 《中国心血管病报告2018》显示, 中国心血管疾病发病率及死亡率仍处于上升阶段[2]. 心血管疾病已经成为严重威胁人类健康的头号杀手. 借助影像手段评价心脏功能指标是临床心脏疾病日常诊断的主要依据. 心脏电影磁共振成像(cine cardiac magnetic resonance imaging, Cine-CMRI)软组织对比度高、时空分辨率好、可以动态观察心脏解剖结构, 可重复性和高准确度使Cine-CMRI成为评估心脏功能指标的金标准. 基于Cine-CMRI的右心室(right ventricular, RV)分割对肺动脉高压、三尖瓣闭锁、法洛四联症等心脏疾病的功能评价具有独特的重要参考意义[3,4], 是目前心脏分割领域的研究热点. 然而, RV心肌薄且个体差异大, 心外膜毗邻脂肪, 心内膜连接小梁肌, 给传统的分割方法带来了不小的难度.
多图谱分割作为目前RV分割的主要研究手段之一, 在近年来取得了长足的发展. 多图谱分割方法主要是通过图谱先验信息将图像分割问题转换为图像配准和融合, 主要包括图谱选择、配准和融合三个步骤. RV多图谱分割中, 图谱多是主观选择的结构清晰的固定的图像, 并未考虑目标图像与图谱集的相似性对配准精度的影响. 聚类作为研究分类问题的一种统计分析方法, 可有效选择相似图谱. 仿射传播聚类(affinity propagation clustering, AP)算法将数据点对之间的相似性作为输入度量, 利用数据点之间的信息传递得到一组高质量的聚类中心和相应的集群[5], 被首次用于RV多图谱分割中图谱集的获取[6]. 与固定图谱相比, AP算法避免了所有图谱图像与目标图像的配准过程, 显著减少了分割时间, 且同时提高了分割精度. 但是, 图谱图像聚类过程时间过长、心尖图像的分割效果不佳仍然是目前存在的问题. 自适应仿射传播聚类(Adaptive AP)算法在AP算法的基础上进行改进, 主要包括三个方面: 自动调整偏向参数的大小来搜索聚类集群数量寻找最优聚类结果; 自适应调整阻尼因子来消除振荡; 以及阻尼效果不佳时, 降低偏向参数逃离振荡, 以寻找出最优聚类结果[7].
医学图像配准是指通过寻找某种空间变换, 使两幅图像相似度最大化的过程. 降低计算量、提高鲁棒性、更精确地描述器官或组织间的形态差异, 一直是备受关注的问题. Cine-CMRI图像中, RV随时间进行周期性的变化、并且个体结构差异巨大, 对配准方法的灵活性、精度和计算效率的要求更高. 自由形变(free-form deformations, FFD)模型是心脏等运动器官常常采用的配准方法, 该模型作为参数非刚性配准方法, 主要采用几何平滑函数, 通过控制网格点的移动和插值优化等近似求得图像形变, 鲁棒性和精度之间的平衡由控制点网格间距和正则化量控制. 大量文献研究表明[8-12], FFD将图像形变参数化表示, 虽然降低了计算量, 但也限制了形变的复杂程度. 通过局部形变近似求得整体形变, 容易产生物理折叠, 不能确保图像的拓扑结构. 对于形变较大的心脏图像来说, FFD并不能实现精确配准. Thirion[13]根据麦克斯韦妖的原理首先提出将无参数非刚性配准视为扩散过程, 以图像梯度信息作为驱动力实现配准过程的Demons方法. Demons作为小形变配准模型, 在计算效率和配准效果方面皆表现出良好的性能, 然而传统Demons只将参考图像的梯度信息作为驱动力[14], 导致形变程度不高、鲁棒性差, 最重要的是不能维持其拓扑结构. 为了克服上述局限性, Vercauteren等[15]提出Diffeomorphic demons模型, 结合李群空间实现优化策略确保形变场具有拓扑保持性, 同时采用快速计算指数映射实现了对大形变配准的高效性和鲁棒性, 更适用于处理心脏图像.
融合的主要目标是在有效利用资源的情况下尽可能提供准确可靠的结果. RV配准后的标记图像需要通过融合算法得到RV分割结果. 融合算法中使用较多的是多数投票法、加权投票法、概率图谱、STAPLE (simultaneous truth and performance level estimation)和COLLATE (consensus level, labeler accuracy and truth estimation)算法. 目前多数使用后两种融合方法, COLLATE是对STAPLE算法的改进, 基于最大似然/最大后验方法估计每个体素的共识水平和每个区域的性能, 从而得到更接近真实结果的估计值. COLLATE在模拟数据集和经验数据集中取得的结果都显著优于以往的融合方法[16].
针对RV分割存在的问题, 本文提出了一种新的RV多图谱分割框架, 主要包括图谱集选择, 图谱集与目标图像配准得到粗分割结果, 以及融合粗分割结果获得最终RV分割结果三个步骤. 本文在图谱制作中采用基于豪斯多夫距离和归一化互信息的Adaptive AP算法[7]获取一系列初始的图谱集, 并再次根据豪斯多夫距离和归一化互信息从初始图谱集中选出最相似的图谱集; 然后, 本文利用Diffeomorphic demons算法将目标图像与最相似的图谱集进行配准, 得到一系列保持较好拓扑结构的粗分割结果; 最后, COLLATE算法将粗分割结果进行融合, 获得精确、鲁棒的RV轮廓.
2
2.1.AP算法
-->AP算法通过识别具有代表性的样本子集对数据进行聚类. $s\left( {i,k} \right)$表示数据点i与数据点k之间的相似性, 通常使用欧式距离$s\left( {i,k} \right){\rm{ }} = - {\left| {\left| {{x_i} - {\rm{ }}{x_k}} \right|} \right|^2}$. $s\left( {k,k} \right)$作为输入, 其大小影响聚类中心的选择, 因此又被称为偏向参数p(preferences). 当所有的数据点都同样适合作为聚类中心, p通常被设置为相似值的均值以控制生成的集群数量. 吸引度$r\left( {i,k} \right)$和归属度$a\left( {i,k} \right)$是数据点之间的两种消息交换方式, 按照以下公式迭代更新:
$r\left( {i,k} \right) \leftarrow s\left( {i,k} \right) -\mathop {{\rm{max}}}\limits_{k^\prime s.t.k^\prime \ne k} \left\{ {a\left( {i,k^\prime } \right) + s\left( {i,k^\prime } \right)} \right\}, $
$\left\{ {\begin{aligned}& a\left( {i,k} \right) \leftarrow \\ &{\rm{ min}}\Bigg\{ {0,r\left( {k,k} \right)}+ \sum\limits_{i^\prime s.t.i^\prime \notin \left\{ {i,k} \right\}} {\max \left\{ {0,r\left( {i^\prime ,k} \right)} \right\}}\Bigg\} \\& {a\left( {k,k} \right) \leftarrow \sum\limits_{i^\prime s.t.i^\prime \notin k} {\max \left\{ {0,r\left( {i^\prime ,k} \right)} \right\}} }\end{aligned}} \right.,$
其中归属度初始化$a\left( {i,k} \right) = 0$. 在仿射传播过程中, 每一个数据点都将通过吸引度与归属度之和来确定是否作为聚类中心. 更新消息时, 为避免出现数值振荡设置阻尼系数$\lambda $, 更新结果由上一次迭代结果和当前迭代结果加权得到, $\lambda $$1 - \lambda $分别为二者权重, 默认值为0.5. 与其他方法相比, AP算法更加精确、高效, 并应用于人脸图像聚类、基因检测、文本识别等领域.
Adaptive AP在AP算法的基础上提出自动消除振荡的方法和自动调整偏向参数的大小以寻找最优的聚类结果, 具体步骤如下: 1) AP算法进行一次循环, 产生k个类代表, 并检测是否振荡; 2)若发生振荡, 则逐步增大阻尼因子$\lambda $, 否则转步骤1); 3)检测k个类代表是否收敛, 若不收敛转步骤1); 4)继续若干次循环以验证结果是否稳定, 结果稳定逐渐减小偏向参数p, 否则转步骤1); 5)重复以上步骤直至达到停止条件. 相比较于AP算法, Adaptive AP在聚类质量和消除振荡方面具有更优或不低于原算法的结果.
2
2.2.Diffeomorphic demons算法
-->Diffeomorphic demons是目前医学图像中常用的一种高效、鲁棒的非刚性配准算法, 通过使全局能量函数最小化实现最终的配准过程. 该方法分为优化过程和正则化过程, 其中, 优化过程采用的全局能量函数的标准形式如下[15]:
$\begin{split}E_s^{{\rm{corr}}}\left( u \right) =\; & {\left\| {F - M \circ s \circ \exp \left( u \right)} \right\|^2} \\ & + \frac{{\sigma _i^2}}{{\sigma _x^2}}{\rm{dist}}{\left( {s,s \circ \exp \left( u \right)} \right)^2}, \end{split}$
其中F为参考图像, M为浮动图像, ${\sigma _i}^2$为图像的噪声大小, ${\sigma _x}^2$为形变场正则化的程度, s为上一次迭代后的形变, u为迭代更新的形变场, ${\left\| {F - M \circ s \circ \exp \left( u \right)} \right\|^2}$表示作为相似性测度的均方误差, $\dfrac{{\sigma _i^2}}{{\sigma _x^2}}{\rm{dist}}{\left( {s,s \circ \exp \left( u \right)} \right)^2}$表示形变场的误差函数. 而正则化过程一般通过高斯卷积完成, 得到流体模型或扩散模型的正则化效果.
对于图像中任意一点p的形变, 可通过最小化全局能量函数得到:
$u\left( p \right) = - \frac{{F\left( p \right) - M \circ s\left( p \right)}}{{{{\left\| {{J^p}} \right\|}^2} + \dfrac{{\sigma _i^2\left( p \right)}}{{\sigma _x^2}}}}{J^{{p^{\rm T}}}}, $
通过(4)式计算图像的形变场, 并在李群中实现形变场的复合得到最终的配准结果图像. 由于每次迭代都需要计算形变场的指数映射$\exp \left( u \right)$, 因此利用单参数子群的性质${\rm{exp}}\left( u \right) = {\rm{ exp}}{\left( {{K^{ - 1}}u} \right)^K}$和SS ( scaling and squaring method)快速计算:
1) 选择一个N, 让${2^{ - N}}$趋近于零, 例如${\rm{max}}\left\| {{2^{ - N}}u\left( p \right)} \right\| \leqslant 0.5$;
2) 对图像中任意一点p: $v\left( p \right) \leftarrow {2^{ - N}}{\rm{ }}u\left( p \right)$, 对vN次复合运算$v \leftarrow v \circ v$;
其中, ${v_1}$${v_2}$并不是简单相加, 而是通过${v_2}$驱动形变, 重新插值得到${v'_1} $, ${v'_1}$${v_2}$再相加得到.
Diffeomorphic demons算法步骤如下:
1) 给定目标图像F和图谱图像M, 仿射变换后的形变场s作为初始形变场;
2) 通过最小化E, 即(4)式计算更新后的形变场u;
3) 对u做高斯卷积, 让$u \leftarrow {K_{{\rm{fluid}}}} * u$, 产生流体模型的正则化效果;
4) 让$c \leftarrow s \circ {\rm{exp}}\left( u \right)$;
5) 对c做高斯卷积, 让$s \leftarrow {K_{{\rm{diff}}}} * c$, 产生扩散模型的正则化效果;
6) 重复以上步骤, 直至E收敛或达到最大迭代次数, 得到最终形变场s及配准结果.
Diffeomorphic demons是在李群框架下实现配准的优化策略, 可以产生具有微分同胚的形变、保证RV配准中产生的变形场具有可逆性、拓扑保持性.
2
2.3.COLLATE算法
-->COLLATE作为一种统计标签融合算法, 可以准确估计和解释空间变化的性能. 假设一幅图像有N个像素点, R个标签信息用来评估其真实结果. DN × R的矩阵, 描述所有N个体素中所有R个配准结果的标记决策. 设TN个元素的向量, 表示所有体素的隐式真分割, 其中${T_i}\{ 0,1, \cdots ,L - 1\} $. 定义一个包含N个元素的向量C, 它表示在每个体素的一致或混淆特征, 共有F个等级, ${C_i} \in \{ 0,1, \cdots\!,F - 1\} $. 定义 $\theta = [{\theta _1},{\theta _2},\! \cdots\!,$${\theta _R}] $, 表示R个配准结果对应的性能水平估计; 结合上述定义, 将$f(D,T,C|\theta )$定义为概率质量分布函数, 并通过最大期望算法(E-M algorithm, E-M)来实现性能水平参数$\theta $的估计, 其中, E-Step将估计图像体素i属于每个一致性水平的概率, 这个概率在M-Step中估计性能水平参数时对每个体素的权重至关重要. COLLATE作为一种准确、鲁棒的融合算法, 已经成功用于RV分割[17]. 因此提出使用COLLATE算法进行RV标记图像的融合.
本文提出了结合Diffeomorphic demons算法的多图谱分割框架, 从心脏磁共振图像中自动精确提取RV轮廓, 一系列图像处理流程如图1所示. 算法具体步骤如下:
图 1 结合多图谱和Diffeomorphic demons算法的右心室分割流程图
Figure1. Flow diagram of right ventricular segmentation combined with multi-atlas and Diffeomorphic demons algorithm.

1) 原始心脏磁共振数据首先进行预处理, 通过霍夫圆变换定位左心室并确定包含RV的感兴趣区域;
2) 依据图像特征和灰度信息进行仿射传播聚类得到图谱集, 并根据目标图像选择图谱集;
3) 然后与图谱图像分别进行仿射变换和Diffeomorphic demons配准, 并将得到的形变场应用于标记图像;
4) 最后利用COLLATE算法融合所有标记图像得到右心室分割结果.
基于以上提出的方法对心脏磁共振图像进行处理. 从RV特征及结构出发, 考虑在RV分割中感兴趣区域过大, 导致计算量增加从而降低分割速度, 同时影响图像的配准及分割效果, 尤其是心尖部分. 同舒张末期(endo-diastolic, ED)相比, 收缩末期(endo-systolic, ES)的RV轮廓较小. 因此, 本文采用不同大小的感兴趣区域进行处理: 123 × 123, 103 × 103. 从空间结构来看, 基底到顶端心室面积逐渐减小, 分割也越来越困难. 所以, 本文在预处理阶段将心室基底到顶端的感兴趣区域逐渐缩小, 具体通过定位左心室中心, 缩小半径来实现. 这样既解决了由于感兴趣区域过大引起的计算量增加和配准精确性等问题, 同时顶端心室腔狭小难以分割的问题也得到缓解.
2
3.1.图谱集选择
-->本文结合Adaptive AP算法和图谱集特点提出适合RV分割的图谱聚类方法, 具体流程如图2所示.
图 2 图谱图像聚类流程图
Figure2. Atlas image clustering flow chart

图谱集包括图谱图像和标记图像, 其中标记图像是由专家手动勾画RV轮廓得到的二值图像. 针对图谱集的特点, 采用不同的相似性测度进行分别聚类. 首先, 标记图像${l_1} - {l_n}$采用豪斯多夫距离(Hausdorff distance, HD)作为相似性度量进行Adaptive AP聚类, 得到结果${C_1}\left( l \right), {C_2}\left( l \right), \cdots ,$${C_m}\left( l \right) $; 取相应的图谱图像子集${C_1}\left( g \right), {C_2}\left( g \right), \cdots , $${C_m}\left( g \right) $采用归一化互信息(normal mutual information)作为相似性度量分别进行Adaptive AP聚类, 得到进一步的聚类子集${C_1}\left( g \right), {C_2}\left( g \right), \ldots , $${C_k}\left( g \right) $. 多图谱在图谱数量的选择要平衡分割精度和速度之间的关系, 研究表明图谱数量在15—20幅范围之间, 可以保证分割精度的同时提高速度[18]. 因此, 我们将子集数量是否大于等于15作为满足条件进行筛选, 最后将符合要求的聚类子集再一次进行聚类, 得到一组聚类中心${g_1},{g_2}, \cdots ,{g_i}$; ${l_1},{l_2}, \cdots ,{l_i}$和集群${C_1}\left( g \right), {C_2}\left( g \right), \cdots , $${C_i}\left( g \right) $; ${C_1}\left( l \right), {C_2}\left( l \right), \cdots , {C_i}\left( l \right)$.
聚类后针对目标图像选择合适的图谱集进行分割. 首先目标图像Ti个聚类中心经配准、融合得到初始分割结果L; 然后依据相似性测度的大小选择图谱集. 文献[5]使用了Dice系数作为选择依据, 但是其只考虑了L${l_1},{l_2}, \cdots ,{l_i}$的重叠区域的大小. 本文从配准算法出发, 考虑其驱动力主要依靠图像梯度信息提出了一个新的相似性测度:
$D = \alpha \left( {\frac{1}{{{\rm{HD}}}}} \right) + \left( {1 - \alpha } \right){\rm{NMI}}, $
其中HD代表豪斯多夫距离, 测量标记图像${l_1},{l_2}, \cdots ,{l_i}$L之间最大差异的对称距离度量. NMI代表归一化互信息, 测量两幅图像的灰度相似性. D表示相似性测度, 由 HD和NMI共同决定, $\alpha $$1 - \alpha $代表二者的权重. 计算目标图像T与各聚类中心的相似性测度, 选择相似性最高的聚类中心所代表的图谱集用于接下来的RV分割.
在图谱选择阶段, 顶端心室面积太小可能会导致图谱集选择失败. 对于这些无法选择图谱集的层面提出一种替代策略, 即选择上一层面的图谱集作为分割图谱. 这是由于心脏磁共振电影图像相邻层面之间具有较大的相似性, 替代策略可以减小由于心室面积过小而导致分割失败的概率并保证其分割精度.
2
3.2.配准和融合
-->Diffeomorphic demons算法保证了配准前后的拓扑保持性, 高效、灵活的计算方式对心脏图像的大形变配准表现出良好的性能. 为了提高结果的鲁棒性, 在进行Diffeomorphic demons配准之前, 首先对两幅图像进行仿射变换, 得到粗配准结果. 图3是RV配准的典型例子, 可以看出Diffeomorphic demons在RV图像配准中取得了较好的结果.
图 3 四个右心室配准的典型例子 (a) 目标图像; (b) 图谱图像; (b) 标记图像; (d) 配准结果
Figure3. Four examples of typical right ventricular registration: (a) Target image; (b) atlas image; (c) label image; (d) registration result.

为了进一步提高配准速度, 结合了多分辨率策略, 首先图谱图像和目标图像在最低分辨率情况下进行配准, 快速得到该分辨率层的形变场; 然后该形变场进行上采样作为更高分辨率层的初始值, 以加快配准速度, 重复以上步骤直到得到最终的形变场.
COLLATE算法可以依据标签信息准确估计图像空间变化. 本文在右心室的多图谱分割中将配准步骤得到的标记图像利用COLLATE算法进行融合, 得到准确、鲁棒的分割结果. RV标记图像的融合过程如图4所示.
图 4 RV标记图像的融合过程
Figure4. RV label image fusion process

2
4.1.实验数据
-->Cine-CMRI短轴图像在GE1.5 T扫描仪上通过SSFP序列获取, 采集8—16层连续的电影短轴切片以覆盖整个心室. 具体成像参数: 图像矩阵大小256 × 256, FOV是360 mm × 360 mm, 层厚6—8 mm, 层间距2—4 mm, 一个完整的心动周期包括20—28个时相. 数据来源者均签署知情同意书. 随机选取34例短轴电影图像, 由专家手动勾画出ED, ES时相的RV轮廓, 该标记图像用于图谱制作. 另外随机选取30例数据用于算法验证, 同时将专家手动勾画得到的RV轮廓作为金标准, 用于实验结果评估.
2
4.2.评估指标
-->分割结果的评估是图像分割的重要步骤, 本文采用互补的两个客观指标对分割结果进行评估: 几何指标和临床表现, 综合两种评估指标可以防止对分割结果的片面评估, 保证评估结果的客观性和准确性. 定量评估金标准与算法分割结果的几何指标包括: Dice指标和豪斯多夫距离. Dice指标是两个区域重叠的度量, 其范围在0—1之间:
$D = \frac{{2 \times \left| {{S_a} \cap {S_b}} \right|}}{{\left| {{S_a}} \right| + \left| {{S_b}} \right|}}, $
其中${S_a}$, ${S_b}$分别代表自动分割算法和金标准中的RV区域. Dice指标越高代表算法分割与金标准之间的重合程度越高. 豪斯多夫距离提供了两个标记轮廓之间最大差异的对称距离度量, 定义为:
$\begin{split}{\rm{HD}}(A,B) =\; & \max \left(\mathop {\max }\limits_{a \in A} \left( {\mathop {\min }\limits_{b \in B} d(a,b)} \right)\right.,\\ &\left.\mathop {\max }\limits_{b \in B} \left( {\mathop {\min }\limits_{a \in A} d(b,a)} \right)\right),\end{split} $
其中A, B表示自动分割算法和金标准的RV轮廓, ab分别表示轮廓AB中的点, $d\left( {a,b} \right)$代表欧几里得距离.
通过RV分割量化的心脏功能指标主要包括舒张末期容积(end diastolic volume, EDV), 收缩末期容积(end systolic volume, ESV)及射血分数(ejection fraction, EF). 临床表现是将心脏功能指标的算法结果与临床数据进行一致性和相关性分析. 其中, 相关性分析主要是描述算法结果与临床数据的相关密切程度. 一致性通过Bland-Altman图实现, 算法结果与临床数据的偏差均值(Mean)及一致性界限(Mean ± 1.96SD)是衡量二者一致性的主要依据.
2
4.3.实验结果
-->本文对30例临床心脏磁共振数据进行处理, 并与专家手动勾画的金标准进行比较. ED及ES的典型分割如图5图6所示, 图中依次是RV的基底到顶端.
图 5 ED从基底到顶端的RV分割结果
Figure5. RV contour at ED from base to apex.

图 6 ES从基底到顶端的RV分割结果
Figure6. RV contour at ES from base to apex.

表1给出了RV分割结果在ED和ES的Dice指数和HD, 其中数据以均值(方差)形式呈现. 表中数据可以得到ED及ES的Dice指标平均为0.87, 0.81; ED和ES的HD平均为10.76和12.16 mm. 从结果比较, ED的分割结果与金标准的重合度更高. 与现有分割方法存在的问题相同, ES时相的分割结果精度相对较低. 主要原因是ED时相RV结构简单, 边界清晰; 而ES时相由于部分容积效应导致边界模糊且心室腔相对较小, 分割难度更高. 30例分割结果的Dice指标箱形图如图7所示, 其中ED, ES的中位数分别为0.875, 0.820. 从图中可以看出ED时相的分割结果优于ES时相, 且分割结果更加稳定.
DiceHD/mm
ED0.87(0.10)10.76(4.5)
ES0.81(0.16)12.16(6.54)


表1ED, ES的平均Dice指数和豪斯多夫距离
Table1.Average Dice index and Hausdorff distance of ED and ES.

图 7 Dice指标的箱形图
Figure7. Box diagram of the Dice index.

分析30例数据结果与金标准的相关性和一致性, 结果如图8所示, 图中Data表示30例数据结果. 图8(a)、(c)、(e)表明自动分割结果与金标准的相关性, 其中横纵坐标分别为金标准和自动分割算法的结果, y表示线性回归方程并在图中标出. EDV, ESV及 EF的相关系数R分别为 0.94, 0.90, 0.86. 其中, EDV的结果与真实临床指标的相关性最高. 图8(b)、(d)、(f)显示了EDV, ESV及EF的自动分割结果与金标准具有较高的一致性. 图中横轴为自动分割结果和金标准的均值, 纵轴为自动分割结果和金标准的差值. Mean是差值的平均值, SD表示差值的标准差, Mean ± 1.96SD 为一致性界限. Bland-Altman 图中表明, EDV, ESV及 EF的偏差均值分别是2.5113, –3.4783, 0.0341, 可以看出自动分割算法偏差很小, 除了少数的异常值, 所有的测量值都在一致性界限内. 从相关系数和偏差均值来看, ED比ES提高了0.04, 0.967, 表明ED的分割结果更加接近金标准, 这是由于舒张末期心室面积相对较大. 一致性分析显示ES时RV容积轻度低估, 主要原因是ES顶部心室面积狭小, 部分图像未分割出RV轮廓.
图 8 本文算法与金标准结果分析 相关性分析 (a) 舒张末期容积; (b) 收缩末期容积; (c) 射血分数; Bland-Altman分析 (d) 舒张末期容积; (e) 收缩末期容积; (f) 射血分数
Figure8. Analysis of algorithm and gold standard results. Correlation analysis (a) EDV; (b) ESV; (c) EF; Bland-Altman analysis (d) EDV; (e) ESV; (f) EF.

为了进一步验证算法分割结果的准确性, 将算法结果与深度学习的全自动分割结果进行了比较. 其中, 深度学习分割是由Circle CardioVascular Imaging (http://www.circlecvi.com/)开发的心脏分析软件心血管成像(CVI)得到. 卷积神经网络是CVI分割心脏图像的主要方法, 其结果的准确性也已得到验证[19,20]. 图9为深度学习结果与金标准的相关性及Bland-Altman分析(图中各符号物理意义均同图8). EDV, ESV, EF的相关系数R分别为0.93, 0.86, 0.66, 与本文算法得到的相关系数 0.94, 0.90, 0.86相比, 深度学习方法的ESV和EF的一致性水平明显偏低. 图9(b)、(d)、(f)中偏差均值分别为–1.8167, –6.1830, 0.0372, 可以看出, ES的偏差均值相对较低. 相比之下, 本文算法的偏差均值2.5113, –3.4783, 0.0341相对平均, 算法的稳定性更高. 与深度学习相比, 本文提出的算法在ES阶段具有较高的分割精度, 主要是依据ES的结构特点在预处理及图谱选择阶段做出了调整. 然而, ED时相的分割结果相对较差, 是由于深度学习依据大量数据训练得到的更具代表性的分割模型, 结果精确度更高.
图 9 深度学习与金标准结果分析 相关性分析 (a) 舒张末期容积; (b) 收缩末期容积; (c) 射血分数; Bland-Altman分析 (d) 舒张末期容积; (e) 收缩末期容积; (f) 射血分数
Figure9. Analysis of deep learning and gold standard results. Correlation analysis (a) EDV; (b) ESV; (c) EF; Bland-Altman analysis (d) EDV; (e) ESV; (f) EF.

RV复杂结构和Cine-CMRI的影像学特点是其分割的主要困难: RV内包括随心动周期变化的乳头肌和小梁肌; 部分容积效应和心脏运动常导致Cine-CMRI短轴图像的低信噪比. 在基底部, 可以观察到RV, LV, 心房及周围结构往往难以区分, 导致RV边界不确定. 在心室顶端, 心室腔狭窄且心肌及内部结构分布不均, 分割更加困难. 针对这些问题, 提出一种从心脏磁共振短轴图像中自动分割RV的新方法. 该方法采用多图谱框架和Diffeomorphic demons算法结合, 并且依据豪斯多夫距离和归一化互信息采用Adaptive AP获得图谱集. 实验结果表明, 该方法取得了与金标准具有较高一致性的分割结果, 无论在几何指标和临床表现中, 都成功验证了方法的可行性和准确性. 与其他现有方法比较, 我们提出的方法可以做到准确、快速地分割出RV轮廓, 具有更强的鲁棒性和准确性, 特别是心室腔狭小的图像. 提出的新方法有望辅助临床心脏疾病的诊断、治疗和预后. 同时, 为了更好地提高分割效果, 还可以结合图像特征进一步优化配准算法, 提高多图谱分割精度和速度将是下一步要做的工作.
相关话题/图像 数据 指标 计算 过程

  • 领限时大额优惠券,享本站正版考研考试资料!
    大额优惠券
    优惠券领取后72小时内有效,10万种最新考研考试考证类电子打印资料任你选。涵盖全国500余所院校考研专业课、200多种职业资格考试、1100多种经典教材,产品类型包含电子书、题库、全套资料以及视频,无论您是考研复习、考证刷题,还是考前冲刺等,不同类型的产品可满足您学习上的不同需求。 ...
    本站小编 Free壹佰分学习网 2022-09-19
  • 金属原子催化作用下缺陷石墨烯薄膜的自修复过程
    摘要:采用分子动力学方法,模拟了金属原子存在条件下缺陷石墨烯的自修复过程.模拟采用了Ni和Pt两种金属原子作为催化剂,通过改变系统温度,得到了多组模拟结果.观察对比了模拟结束时获得的原子构型图,并通过计算修复过程中石墨烯内5,6,7元环的数量变化,研究了不同金属原子对缺陷石墨烯的催化修复效果,发现在 ...
    本站小编 Free考研考试 2021-12-29
  • 液态五元Ni-Zr-Ti-Al-Cu合金快速凝固过程的高速摄影研究
    摘要:采用电磁悬浮和自由落体两种无容器熔凝技术,并借助高速摄影实时分析方法,研究了液态五元Ni40Zr28.5Ti16.5Al10Cu5合金的深过冷能力和快速凝固机制.在电磁悬浮条件下,液态合金的过冷度可达290K(0.21TL).当深过冷熔体快速凝固时,高速摄影观察发现悬浮液滴表面呈现点状和环状两 ...
    本站小编 Free考研考试 2021-12-29
  • 稀土永磁体及复合磁体反磁化过程和矫顽力
    摘要:稀土永磁体即使内秉性质相同,但矫顽力可能相差很大.本文以Pr-Fe-B磁体为例,从热激活反磁化即反磁化临界过程探讨决定矫顽力的关键因素.Pr-Fe-B晶粒表层缺陷区与晶粒内部耦合推动反磁化畴形核从而去钉扎,晶粒表层缺陷区的各向异性对克服晶粒内部势垒具有贡献,因此反磁化形核场和矫顽力大大降低.由 ...
    本站小编 Free考研考试 2021-12-29
  • 单分子器件的拉伸与断裂过程第一性原理研究: 末端基团效应
    摘要:基于密度泛函理论,研究了含S以及含N末端基团的分子结的拉伸与断裂过程.计算结果显示,对于尖端为锥形的金电极,当末端基团为—S时,拉断分子结的作用力大小为0.59nN,大于H原子未解离的—SH从金电极上断裂所需的0.25nN作用力,但明显小于—S末端从平面金电极上断裂下来的约1.5nN的作用力. ...
    本站小编 Free考研考试 2021-12-29
  • 薄层剪切二元颗粒分离过程动力学特性分析
    摘要:颗粒分离的物理机制目前没有统一解释.本文采用三维离散元模型,模拟了剪切槽内两种尺度的球形二元颗粒在高度方向上位置互相颠倒的现象.关注大颗粒跃升过程中的运动学和动力学行为特征,观测到大颗粒跃升过程分三个阶段:弛豫阶段、起跳阶段和平衡阶段.定量分析了摩擦系数对颗粒受力等具体影响.结果显示弛豫时间随 ...
    本站小编 Free考研考试 2021-12-29
  • 基于有效介质理论的物理性能计算模型的软件实现
    摘要:在改进的有效介质理论的基础上采用C++/Qt混合编程,设计并开发出一套复合材料物理性能模拟计算软件—CompositeStudio.该软件通过格林函数对本构方程进行求解,计算体积分数、颗粒长径比、取向分布、宏观位向对复合材料有效性能的影响.目前软件开发了弹性模量和介电常数两个模块,提供了友好的 ...
    本站小编 Free考研考试 2021-12-29
  • 风云四号A星和GOES-13相对论电子观测数据在轨交叉定标及数据融合研究
    摘要:地球磁层空间的相对论电子通过内部充放电效应,能够导致在轨航天器彻底失效.由于对这种空间粒子的特性和物理机制仍不清楚,磁层空间相对论电子一直是空间环境探测和空间科学研究的重要对象.开展相关磁层空间环境特性的研究和粒子辐射环境建模等,需要同时使用来自不同卫星、不同探测器的观测数据.消除不同探测器之 ...
    本站小编 Free考研考试 2021-12-29
  • 基于连续数值模拟的筒仓卸载过程中颗粒物压强及其速度场分析
    摘要:应用基于局部本构理论的连续数值模拟方法,研究出口在底部和侧面的颗粒物在类三维矩形容器内的卸载现象.重点是容器厚度W和出口高度D对颗粒物压强与速度的影响.受力分析和数值模拟结果均表明,距离出口较近区域的颗粒物压强与W及D呈现如下相关性:当D/W足够小时,压强只与D相关;当D/W足够大时,压强只与 ...
    本站小编 Free考研考试 2021-12-29
  • 三价镨离子掺杂对铽镓石榴石晶体磁光性能影响的量子计算
    摘要:在铽镓石榴石(TGG)晶体中掺杂Pr3+离子能够有效提升材料的磁光性能,但目前缺乏系统的理论计算阐明此问题.本文根据量子理论,分析了掺杂Pr3+离子的影响机理并进行了定量计算.根据微扰理论解算久期方程,得到自旋-轨道耦合、晶场、有效场及离子之间的超交换作用下,Tb3+,Pr3+离子的能级位移及 ...
    本站小编 Free考研考试 2021-12-29
  • 蒙特卡罗临界计算全局计数问题新策略研究
    摘要:基于一个裂变源分布对应香农熵序列的在线收敛性诊断方法,为提高全局计数整体效率的均匀裂变点算法将在首次激活迭代步和首次判断收敛迭代步的最大值之后启动.之后,整体精度指标将每隔固定迭代步数计算一次,一旦达到事先设定的精度标准,整个临界迭代计算将提前终止.这一判断过程将一直持续到事先设定的最大迭代步 ...
    本站小编 Free考研考试 2021-12-29