删除或更新信息,请邮件至freekaoyan#163.com(#换成@)

海洋科学中尺度涡的计算机视觉检测和分析方法

本站小编 Free考研考试/2022-01-02

沈飙,*, 陈扬, 杨琛, 刘博文中国海洋大学,山东 青岛 266100

Computer Vision Detection and Analysis of Mesoscale Eddies in Marine Science

SHEN Biao,*, CHEN Yang, YANG Chen, LIU BowenOcean University of China, Qingdao, Shandong 266100, China

通讯作者: *沈飙(E-mail:shenbiao@ouc.edu.cn

收稿日期:2020-08-8网络出版日期:2020-12-20
基金资助:自然资源部海洋灾害预报技术重点实验室开放基金项目“深度Gabor散射网络及其在海洋中尺度涡检测中的应用”(LOMF 1802)


Received:2020-08-8Online:2020-12-20
作者简介 About authors

沈飙,中国海洋大学,物理海洋教育部重点实验室计算中心,工程师,从事高性能计算方面的管理、维护与应用研究,具有丰富的海洋数值模式的编译、运行、应用支持等经验。本文负责总体统稿,提供作业平台和算法思路。
SHEN Biao is an engineer of Key Laboratory of physical Oceanography, MOE, China. He has been engaged in the management, maintenance and application research of HPC with rich experience in compiling, running and supporting Marine numerical models.In this paper, he is responsible for the overall draft, providing the operation platform and algorithm ideas.E-mail:shenbiao@ouc.edu.cn


陈扬,中国海洋大学信息科学与工程学院计算机科学与技术专业在读学士。本文负责在集群上开展实验,撰写初稿。
CHEN Yang is an undergraduate student majored in computer science and technology, School of information science and engineering, Ocean University of China. In this paper, he completed the first draft and parts of experiments and analysis.E-mail: chenyang8484@ouc.edu.cn


杨琛,中国海洋大学海洋与大气学院,硕士研究生。本文负责针对PAC竞赛调整实验,挖掘摘要引言的内容。
YANG Chen is a master student majored in marine science in the school of ocean and atmosphere, Ocean University of China. In this paper, he is responsible for the experimental adjustment for the PAC competition and composition of the abstract and introduction.E-mail: qdyangchen@163.com


刘博文,中国海洋大学海洋与大气学院,硕士研究生。本文负责后期修正文稿,整理实验结果,分析结论。
LIU Bowen is a master student majored in marine science from the school of ocean and atmosphere, Ocean University of China.In this paper, he is responsible for revising the manuscript, sorting out the experimental results and analyzing the conclusions.E-mail: 15610009099@163.com



摘要
【目的】中尺度涡是海洋科学领域一个重要的研究课题,在人工智能领域中深度神经网络的技术支持下,将计算机视觉与海洋领域相结合,促进中尺度涡智能识别技术的应用和发展。【方法】基于Mask-RCNN算法,将深度学习中的目标检测算法应用于中尺度涡检测,结合多模态卫星遥感图像数据,对海洋中的中尺度涡进行识别、分类和分割。【结果】传统的中尺度涡检测方法只能检测中尺度涡的位置和大小,本文算法利用多模态信息进行定位、分类和实例分割,有效提取中尺度涡的特征,可以获得更高的检测准确率。【结论】人工智能在中尺度涡识别和追踪问题上具有重大的应用潜力,但涡旋检测的评价指标仍需进一步完善,促进深度学习检测中尺度涡技术向快速高效的方向发展。
关键词: 中尺度涡;目标检测算法;深度学习;多模态数据融合

Abstract
[Objective] Mesoscale eddy is an important research topic in the field of marine science. With the support of deep neural network in the artificial intelligence field, computer vision is combined with ocean field technology to promote the application and development of intelligent recognition technology of mesoscale eddy. [Methods] Based on Mask-RCNN algorithm, a deep learning object detection algorithm is applied to the detection of mesoscale eddies. Combined with the multi-modal satellite remote sensing image data, the mesoscale eddies in the ocean can be identified, classified and segmented. [Results] The traditional method can only detect the location and size of mesoscale eddies. In this paper, multi-modal information is adopted to locate, classify and segment the mesoscale eddies. [Conclusions] Artificial intelligence has great application potential in recognizing and tracking mesoscale eddies. But the evaluation indexes of eddy detection still need to be further improved to promote the rapid and efficient development of deep learning detection of mesoscale eddies.
Keywords:mesoscale eddy;object detection;deep learning;multimodal data fusion


PDF (9476KB)元数据多维度评价相关文章导出EndNote|Ris|Bibtex收藏本文
本文引用格式
沈飙, 陈扬, 杨琛, 刘博文. 海洋科学中尺度涡的计算机视觉检测和分析方法[J]. 数据与计算发展前沿, 2020, 2(6): 30-41 doi:10.11871/jfdc.issn.2096-742X.2020.06.004
SHEN Biao, CHEN Yang, YANG Chen, LIU Bowen. Computer Vision Detection and Analysis of Mesoscale Eddies in Marine Science[J]. Frontiers of Data and Computing, 2020, 2(6): 30-41 doi:10.11871/jfdc.issn.2096-742X.2020.06.004


引 言

在海洋领域,中尺度涡是指在海洋中持续时间为2~10个月、半径约为10~100千米的涡旋[1]。相比于海洋中常见的涡旋,中尺度涡有着更大的半径以及更长的持续时间,但是其规模又远小于海洋中的持续存在的大环流。中尺度涡携带极大的动能,中尺度涡内海水流速非常快,相对洋流平均流速要快几倍到一个量级[2]。径向涡旋通常为几十米到上百米,甚至上千米的深海,海洋深层的营养盐和冷水会被径向涡旋带到海洋表面。中尺度涡还能够将海表暖水压到较深的海洋中,在全球海洋物质、能量和热量等的运输和分配中起着重要的作用。因此,对中尺度涡的研究具有非常重要的科学意义和渔业价值。

近年来,深度神经网络在图像分类、人脸识别、文本识别等多个方面取得了非凡的成就,特别是在图像分类领域,一些新型的技术比如随机丢弃技术(Dropout)、正则化(Normalization)、 批归一化(Batch Normalization)等,使得深度卷积神经网络模型在复杂的计算机视觉问题中展现出高效的性能。而在目标检测和分割领域,深度网络模型(R-CNN,Faster R-CNN,Mask R-CNN 等)的很多改进版本,识别准确率达到了很高的水准,应用到了生产生活的很多领域[3,4,5,6,7]

通过结合超分辨率、遥感卫星数据和海洋浮标资料,中尺度涡的检测技术已成为物理海洋领域的研究热点之一[8]。但从卫星遥感数据中识别中尺度涡的主要方法还是依赖专家分析,这种方法劳动强度大,很难满足快速、准确检测的需求,对于大规模数据而言更难以做到全面的检测和分析。另外,传统算法利用海表高度、温度等数据,基于流场几何特征、边缘检测以及拉格朗日随机模型进行中尺度涡检测,这些算法误检率较高。还有一些基于图像和深度神经网络的方法,通过将海洋卫星遥感数据转换成图像作为神经网络的输入,但是这一类方法会损失卫星遥感数据的细节信息,且已有的深度学习模型相对简单,通常检测结果不能达到良好的预期[9,10,11,12,13]

为解决上述问题,我们将探索使用人工智能中的深度学习算法,对涡旋进行检测、分类和实例分割,也就是结合深度卷积神经网络和多模态海洋卫星遥感数据,实现对中尺度涡的精确检测。我们将使用多模态数据融合,对卫星遥感数据,如海洋表面高度(SSH)、温度(SST))及流速数据(SSV)进行融合学习,摒弃以往将单一类型数据转换成图像数据再进行检测分析的策略。同时,借鉴目标检测、语义分割网络的优点,设计深度区域提取网络用于中尺度涡检测。其中,残差神经网络部分负责学习中尺度涡的特征表示,区域生成网络生成含有中尺度涡的区域并提取特征,头网络部分负责中尺度涡类别和范围预测,整体网络能通过端到端的方式进行训练。

图1

新窗口打开|下载原图ZIP|生成PPT
图1海表面高度、气旋涡、反气旋涡

Fig.1Sea surface height(SSH), anticyclonic, cyclonic



本文主要从设计应用于中尺度涡检测的深度神经网络入手,探索神经网络在提取卫星遥感数据特征中的有效性。本文通过建立特定中尺度涡检测数据集,训练深度神经网络模型,并对比本文提出的基于深度区域提取网络的方法和其同类算法之间的功能性和准确率。

1 数据集来源及构造

1.1 数据集来源

本研究使用的卫星遥感数据来自于哥白尼海洋环境监测服务中心。哥白尼海洋环境监测服务中心的全球海洋物理再分析数据包(GLOBAL OCEAN PHYSICS REANALYSIS GLORYS2V4)包含海表温度、盐度、洋流、高度以及海冰参数的日常平均值,分辨率为0.25度,覆盖时间为1993年~2015年。由于其精度高,数据类型全面,所以本数据集的建立使用了全球海洋物理再分析数据包中能够辅助中尺度涡检测的温度、高度以及流速数据。其中海水流速数据包含两个方向,分别是东向海水的流速以及北向海水的流速。

本文实验的数据是GLORYS2V4中2000年01月16日到2009年12月16日共计十年的温度、高度以及流速数据,其中这三种数据的维度分别为681×1440×120,681为纬度的维度,1440 为经度的维度,120 表示数据来自连续的 120 个月。

为了保证神经网络的训练速度,如图1所示,本研究使用了区域大小为128 × 128的遥感数据。数据采集的方式为随机不重复的在每个月的各类数据中取 13 次,并保证温度、高度以及流速的对应位置相同。在标签(label)的设计中,如图 1气旋涡标(cyclonic)注为1.0,反气旋涡(anticyclonic)标注为-1.0,没有涡的区域标注为0.0。这样能将三种情况的差异尽可能地变大,在识别的时候尽可能降低学习的难度。

在训练集和测试集分配上选择按照3: 7的比例将所有数据分为测试数据和训练数据。

1.2 中尺度涡蒙版的生成

本文使用的Mask-RCNN算法除了需要给出涡形类别的标注外,还需要给出对应区域的中尺度涡的蒙版(Mask)作为网络的评价,而数据集中并没有直接的给出中尺度涡的蒙版,我们需要基于一个传统的非机器学习算法EddyScan对卫星雷达高度计数据进行中尺度涡检测,并将此结果作为数据的蒙版标注,然后对本文提出的算法进行有效性检测[14,15]

该方法在-100m到+100m的区间进行间隔为 1m的重复计算。在每个阈值i,EddyScan识别出数量具有至少为 i 的海平面高度异常的所有连通组件[16]。然后,算法去除属于已经识别的连通分量的所有像素,并且以 i 递增。为了识别反气旋涡,作者在-100 m初始化并以 1m 步长增加到+100m。相反,通过将 i 从+100m 减小到-100m 来实现对气旋涡的检测[17,18,19]

对于大于正常规模的涡旋,用凸包函数(convex hull function)来确定包含涡旋的所有网格数据的最小凸集的大小[20]。如果凸包的面积远大于连接区域的面积,则可能是多个涡旋合并的情况,并且连接的部分未标记为涡旋,丢弃连接的区域,它将保留在之后要检查的网格数据中,增加了再次检测的几率,这样能够保证不漏检,运行流程见表1

Table 1
表1
表1EddyScan算法流程图
Table 1Flow chart of EddyScan algorithm
算法1:自动全局涡旋追踪算法—EddyScan
输入:海洋表面高度数据(SSH)。
输出:E:全局涡旋列表,涵盖全局内每个网格数据所属涡旋;
A:每个涡流的振幅;
S:每个涡流的表面积。
对于每个时间步ti
对于每个阈值tri ∈ {-100:100}:
如果 i 处SSH的值 i(pi) <tri
pi = 0;
否则:
pi = 1;
检查所有剩余的连接区域;
对于每个连接区域CCi:
如果CCi 符合上文所述标准:
将所有pj ∈ CCi 标注为涡旋;
将pj 从数据中移除:
退出循环;
退出循环;
退出循环。

新窗口打开|下载CSV

该算法运行结束后,我们可以得到SSH数据对应该图的气旋涡和反气旋涡的Mask蒙版,及其旋涡的个数,我们为了保证算法能够有效地检测中尺度涡,剔除了不含涡旋的数据,保证了训练集和验证集都是存在中尺度涡。

本文提出的算法是基于深度学习方法的,相对EddyScan的优势主要体现在以下几个方面:

(1)我们只需要用训练好的模型对图像进行一次操作,就可以准确地得出中尺度涡的位置大小和种类;

(2)从算法复杂度上,EddyScan需要用逐像素地扫描全部点并通过广度优先搜索来得到涡旋的位置和大小等信息[21],时间复杂度远在我们的算法之上。

2 多模态数据融合和深度区域提取网络的算法描述

卫星遥感数据中的海洋表面温度、高度以及流速都会从不同的角度描述中尺度涡的特征,所以理想的情况下,使用尽可能多的数据类型进行中尺度涡检测是最有效的。多模态数据的融合不仅有利于卷积网络进行中尺度涡特征的提取,更有利于进行中尺度涡的预测。

2.1 数据的预处理

首先,不同数据的数值差异很大,在神经网络的前向传播中,会造成前向传播过程中的数据计算异常。其次,近似为 0 的数值频繁在很多数据中出现,会造成预测结果难以学习。最后,不同类型的数据对中尺度涡检测起到的作用是不同的,换句话说,数据需要按比重进行缩放[21,22]

我们采用数据预处理进行数据整合。在数据预处理过程中,最重要的是解决数据分布不均匀的问题,本研究尝试使用归一化方式是 min-max 标准化(min-max normalization),这种方式是通过线性计算,把原始的遥感数据进行线性缩放,最终落到[a, b]之间[23]。首先需要找到原始数据分布中的最大值(max)和最小值(min),然后计算缩放系数,

$k=\frac{b-a}{max-min}$

这里我们一般将区间设置为[0,1],因此计算方式也很简单:

$x^*=\frac{x-min}{max-min}$

图2

新窗口打开|下载原图ZIP|生成PPT
图2多模态数据融合

Fig.2Multi-modal data fusion



2.2 多模态数据融合

在本文使用的海洋数据中,一共有3种:分别是海洋表面高度数H,海洋表面温度数据T,海洋表面流速数据V(双通道)。

除了使用归一化方法之外,本文需要用超参数对不同类型数据进行缩放,以探索不同数据类型在中尺度涡检测任务中的重要性。

h*=h×β;t*×α;v*=v×γ

其中,α+β+γ=1。本文的实验部分会再进行更深入的解释。

接下来通过一个简单的卷积神经网络,我们将包含多模态信息的数据进行特征融合。

x*(|H,T,V|×x1+b1)×x2+b2

H 表示海洋表面高度数据,T 表示海洋表面温度数据,V 表示海表面流速数据。

融合后得到的数据x*作为第二步深度区域提取网络的输入。

图3

新窗口打开|下载原图ZIP|生成PPT
图3深度区域提取网络的中尺度涡检测算法流程图

Fig.3Flow chart of mesoscale eddy detection algorithm for deep region extraction network



2.3 基于深度区域提取网络的中尺度涡检测算法

本文用到的目标检测算法是深度学习中具有分类、定位和实例分割功能的Mask-RCNN算法。其主要由 四个部分组成:深度残差网络ResNet-101,区域生成网络RPN,用于定位和分类的全连接网络和生成实例分割的反卷积网络[24]

2.3.1 深度残差网络

本文中针对中尺度涡的检测问题难度相比较于复杂场景目标检测任务来说,难度较低,所以我们选择了在 coco 数据集下预训练好的ResNet-101作为特征提取网络。由于我们在 RestNet-101使用了残差连接,可以有效地减少网络的过拟合,同时减少梯度在反向传播的时候产生梯度弥散现象。

上一步得到的多模态融合数据,经过深度残差网络得到一张通道数维 256 维,尺度为 8*8的特征图(feature maps),这个特征图表示的是多模态融合数据的高维特征。

图4

新窗口打开|下载原图ZIP|生成PPT
图4残差单元示意图[25]

Fig. 4Schematic diagram of residual element



2.3.2 区域生成网络RPN

区域生成网络RPN(Region Proposal Networks),作用是找出多模态数据中可能存在旋涡的位置(proposals)。

图5

新窗口打开|下载原图ZIP|生成PPT
图5区域生成网络RPN[26]

Fig.5Region Proposal Networks



产生proposals需要用到3×3的滑动窗口(slides-window),每一个滑动窗口需要产生 9 个锚点框(anchors boxs),每一个锚点框由6个变量组成,分别是:x,y,w,h,p,p?,分别表示的是对输入数据中可能存在涡旋的位置的坐标(x,y),以及以该坐标为几何中心的宽为w,高为h的锚点框,p表示该锚点框为旋涡的概率,p?表示不是旋涡的概率[27,28]。通过softmax判断anchors box属于positive或者negative。

$L_{cls }(p_{i},\widehat{p}_{l})=log[p_{i}\widehat{p}_{l}+(1-p_{i})(1-\widehat{p}_{l})]$

接下来通过比较 anchor box 和 ground truth 的 IOU是否大于置信度求得 P*,对预测为旋涡的 anchor box 的A = [x, y, w, h]做回归。

先计算positive anchor与ground truth之间的平移量(tx,ty)和(th,tw):

$t_{x}=\frac{(x-x_{a})}{W_{a}}$

$t_{y}=\frac{(y-y_{a})}{h_{a}}$

$t_{w}=log(\frac{W}{W_{a}})$

$t_{h}=log(\frac{h}{h_{a}})$

设计回归的损失函数为:

$Loss=\sum_{i}^{N}(t^{i}_{*}-W^{T}_{*}·\varphi(A^{i}))^{2}$

近似于优化目标W*

$\widehat{W}_{*}=argmin_{w*}\sum_{i}^{N}(t^{i}_{*}-W_{*}^{T}·\varphi(A^{i}))^2$

综上所述,我们在 RPN 层在通过设立分类和回归两个任务,找出 feature maps 在对应位置可能含有旋涡的锚点位置及其的anchor box的大小。

图6

新窗口打开|下载原图ZIP|生成PPT
图6Mask-RCNN头网络示意图[29]

Fig.6Mask-RCNN header network diagram



2.3.3 ROI池化

运用训练好的RPN 网络,我们在 feature maps 上预测出旋涡可能出现的区域ROI,将这些可能出现中尺度涡的区域作为接下来全连接网络的输入。由于全连接网络需要固定的输入,所以我们使用ROIAlign方法规整到相同的尺寸。

图7

新窗口打开|下载原图ZIP|生成PPT
图7ROIAlign算法[30]

Fig.7ROIAlign algorithm



ROIAlign池化是基于双线性插值的一种池化方法,对feature map上距离采样点最近的四个像素点进行双线性插值得到其下采样的像素值。整个过程中不需要对ROI产生的子区域和采样点进行量化。

其前向传播公式为:

$f(x,y)≈\frac{f(Q_{11})}{(x_{2}-x_{1})(y_{2}-y_{1})}(x_{2}-x)(y_{2}-y)+\frac{f(Q_{21})}{(x_{2}-x_{1})(y_{2}-y_{1})}(x-x_{1})(y_{2}-y)+\frac{f(Q_{12})}{(x_{2}-x)(y-y_{1})}+\frac{f(Q_{22})}{(x_{2}-x_{1})(y_{2}-y_{1})}(x-x_{1})(y-y_{1})$

其反向传播公式为:

$\frac{aL}{ax_i}=\sum_{r}\sum_{j}[d(i,j^{*}(r,j))<1](1-△w)\frac{aL}{ayrj}$

利用 ROIAlign 下采样方法,我们很大程度上解决了传统池化方法中像素点精度造成的Misalignment 对齐问题。

2.3.4 定位、分类和实例分割

接下来我们将规整后的ROI拉伸成一维向量,作为第一个全连接网络的输入,这个全连接网络的输出分为三个部分。

Table 2
表2
表2不同锚点规模对应的学习率
Table 2Learning rate of different anchor size
锚点规模学习率
(头网络)
学习率
(整体训练)
mAP
(%)
(8,32,128)0.0010.00145.50
(4,16,64)0.0010.00153.89
(8,32,128)0.0010.000152.62
(4,16,64)0.0010.000156.35

新窗口打开|下载CSV

L=Lcls+Lbox+Lmask

第一部分负责判断中尺度涡的类别。上一步中的 RPN 网络已经帮我们检测出来该ROI区域内存在旋涡,这一部分的全连接网络的输出仍然是一个二维的向量,每一维分别表示气旋涡和反气旋涡的概率。其损失函数 的计算公式为:

$Lcls(p_{i},\widehat{p}_{l})=-log[p_{i}\widehat{l}+(1-p_{i})(1-\widehat{p}_{l})]$

第二部分为预测中尺度涡的位置,其损失函数 表示预测的旋涡所在的位置。其计算公式为:

$L_{box}=\sum{i}{n}g(t_{i}^{u}-v_{i})$

其中,tu表示真实分类对应的预测参数,v表示ground truth的参数,平移缩放参数n=4,表示一个候选目标框的四个数值。g(·)表示 Smooth L1 损失,在区间[-1,1]内为二次函数,其余区间为线性函数。Smooth L1 损失的优势在于能够让模型更加鲁棒,在训练过程中不容易造成过大的梯度值,避免越过最优值的情况出现

$g(x)= \begin{equation} \begin{cases} 0.5x^{2} \qquad \qquad |x|<1 \\ |x|-0.5 \qquad others \end{cases} \end{equation}$

第三部分为掩码分支,其作用在于对目标区域的中尺度涡进行实例分割。将ROI通过反卷积转化为和ground truth尺度一致的bounding box。如果 ground truth 中标记了这个 bounding box 的是气旋涡的话,那我们就只针对气旋涡的 Mask 进行分割,而对这个 bounding box 中其他可能存在的物体一律忽视。

通过逐像素计算其平均二值交叉熵得到其掩码损失函数 为:

Lmask(CLSk)=sigmoid(ClSk)

通过上面三个损失函数,我们求得了多模态数据中的存在的中尺度涡的分类、定位以及实例分割。

3 实验结果与分析

3.1 深度学习框架与预训模型的选取

本文选择了深度学习框架为Keras以及Tensor-Flow。Keras是一个基于Tensorflow、Theano的一个高级神经网络API,其框架都有良好的兼容性。Keras的设计初衷是速度快,封装性强,且能够实现功能复杂的深度神经网络模型。TensorFlow 是目前使用范围最广的深度学习框架,由谷歌大脑(Google Brain)负责开发和维护。

硬件方面,深度模型的训练需要进行大量的并行计算,为了在短的时间内对模型进行学习,我们使用了英伟达(NVIDIA)的并行计算产品GeForce GTX 1080Ti,并使用双显卡来提高设备的并行计算能力。

在预训练模型选择上,本研究使用了 Microsoft COCO 数据集对主题网络进行了预训练。Microsoft COCO 数据集是一个用于视觉算法训练的大型数据集,内含有超过 30 万张标注图像,超过 200 万个标注实体,主要用于目标检测、语义场景分割等模型的训练,标注复杂程度上远超图像分类。

3.2 评价指标的设立

本研究通过计算模型 mAP 检验模型的准确度。mAP 为不同 IOU(intersection over union)阈值下的平均准确率(average precision)的平均值[31]。IOU 指的是检测结果和真实标注的交集与并集的比值,IOU值越大说明检测结果越好。

本研究中评估在不同的交并比(IoU)[0.5:0.05:0.95]共10个IoU下的AP,并且在最后以这些阈值下的AP平均作为结果,记为mAP@[.5, .95]。

3.3 实验结果分析

本节将从三个方面设计实验,首先选出适合中尺度涡检测网络的最佳超参数,如学习率、锚点尺度,然后测试多模态数据融合的最佳方法,最后和同类型深度学习算法比较中尺度涡检测的有效性和准确度。

3.3.1 模型超参数选择

本研究采用的优化方法为随机梯度下降法 (Stochastic Gradient Descent,SGD),超参数包括锚点尺度(anchor scale)和学习率(learning rate)。SGD是是一种较优深度学习模型优化算法,相比于梯度下降法来说,其能够避免过早陷入局部最优解,在收敛速度上要略慢于Adam、RMSProp算法,但是SGD训练得到的模型准确率较高。锚点尺度表示滑动窗口生成的区域的尺寸比例。学习率表示反向传播对模型参数的更新幅度,过大的学习率将会导致更新幅度过大可能越过最优值点,过小的学习率将导致更新幅度偏小、学习时间过长。学习率衰减法是指模型在学习过程中按照一定规则让学习率逐步衰减,这样就能在接近模型最优值时避免因为参数更新幅度过大而偏离最优值。

由上述检测结果可得,在锚点尺度为(4,16,64),训练头网络的初始学习率为 0.001,整体训练的初始学习率为 0.0001 时,mAP 最高为 56.35。

3.3.2 多模态数据融合实验

本小节设置的实验旨在测试多模态数据融合方法的有效性。在 2.2 节中,我们介绍了会对每个类型的数据进行归一化处理,并对每个数据类型赋予权重,分别是海洋表面温度、高度以及流速的权重超参数,且α + β + γ = 1。权重超参的设定不仅能够在一定程度上体现出不同数据类型在进行中尺度涡检测过程中的重要性,而且能够探索多模态数据融合是否对中尺度涡的检测有帮助。

我们固定其他参数,尝试不同的α、β、γ组合进行实验,训练方式与 3.3.1 小节相同,得到的实验结果如表3

Table 3
表3
表3不同权重比例对应的mAP
Table 3mAP corresponding to different weight proportion size
α、β、γ比例mAPα、β、γ比例mAP
1:1:160.483:5:260.15
2:2:158.692:3:557.75
2:1:258.703:2:555.76
1:2:257.431:1:057.43
2:1:166.851:0:156.48
1:2:159.620:1:152.91
1:1:258.621:0:056.32
5:3:270.270:1:044.91
5:2:367.470:0:149.26
2:5:359.73

新窗口打开|下载CSV

通过上述实验结果可知,当α、β、γ的比例为 5:3:2 时实验结果最优,表明了海表面高度数据在多模态数据融合中较为重要。

图8

新窗口打开|下载原图ZIP|生成PPT
图8标注数据、海表面高度以及多模态融合数据训练效果对比图

Fig.8The training effect comparison chart of annotated data, sea surface height and multi-mode fusion data



可以看到在仅使用海表面高度数据训练的检测结果中,存在多检或漏检的情况,检测结果不够准确。当被检区域涡旋数量较少时,使用多模态数据训练的模型能够以较高的准确率识别出所有涡旋。在涡旋密集的情况下,仅存在很少量的误检结果。因此可以得出结论,使用多模态数据训练的检测结果整体明显优于仅使用海表面高度训练的检测结果。3.3.3 同类算法对比本节将对比实现中尺度涡检测的深度学习方法。本节选了效果比较优秀的两个方法进行对比:方法一是DeepEddy,方法二是EddyNet。

图9

新窗口打开|下载原图ZIP|生成PPT
图9本文方法得到的中尺度涡检测结果示意图

Fig.9A schematic diagram of mesoscale eddy detection results obtained by this method



在功能实现方面,DeepEddy 仅能实现涡旋分类,而 Eddynet 在旋涡分类的基础上实现了涡旋的分割,本研究能基于多模态遥感数据实现涡旋定位、分类和实例分割。通过对比mAP值,本研究提出的方法在使用多模态融合数据进行训练时检测结果好于EddyNet。

Table 4
表4
表4不同方法实现功能对比[32]
Table 4Function comparison of different methods proportion size
DeepEddyEddyNet本方法
涡旋分类
位置预测××
涡旋分割×
图像处理
遥感数据处理××

新窗口打开|下载CSV


表5
表5Eddynet与本方法的mAP对比[32]

新窗口打开|下载CSV

Table 5 mAP comparison of Eddynet and this method proportion size




方法mAP
EddyNet52.16
本方法
(基于多模态融合数据)
70.27

新窗口打开|下载CSV

4 总结

本文将中尺度涡检测和深度学习相结合,探索深度学习中目标检测算法在海洋遥感数据处理上的能力,并实现对遥感数据进行较高准确率的涡旋分割。主要包括三个方面:

(1)提出了基于深度区域提取网络的涡旋检测模型,实现了在卫星遥感数据上的中尺度涡的定位、分类和实例分割。

(2)在中尺度涡检测的过程中使用海表面高度、海表面温度和海水流速数据等多模态数据融合,并通过实验找到数据融合的最佳参数比例。

(3)验证了中尺度涡检测模型的有效性。提出了一个中尺度涡检测数据集,数据集制作中采用了传统非深度学习算法,对遥感卫星数据中每个数据点的类别进行精准标注,并在中尺度涡检测数据集上进行学习,得到了更准确的反馈结果。

利益冲突声明

所有作者声明不存在利益冲突关系。

参考文献 原文顺序
文献年度倒序
文中引用次数倒序
被引期刊影响因子

王桂华, 苏纪兰, 齐义泉 . 南海中尺度涡研究进展
[J]. 地球科学进展, 2005(08):882-886.

[本文引用: 1]

李立 . 南海中尺度海洋现象研究概述
[J]. 台湾海峡, 2002(02):265-274.

[本文引用: 1]

郝滢洁 . 基于卷积神经网络的海洋中尺度涡旋检测算法研究
[D]. 山东科技大学, 2017.

[本文引用: 1]

刘缵然 . 海洋遥感图像中尺度涡检测系统的设计与实现
[D]. 青岛科技大学, 2018.

[本文引用: 1]

张慧 . 深度学习中优化算法的研究与改进
[D]. 北京邮电大学, 2018.

[本文引用: 1]

Nicholas King . Impact investors seeing positive social, financial ROI
[J]. Nonprofit Business Advisor, 2019(359):8.

[本文引用: 1]

Chao Yan, Weihai Chen, Peter C. Y. Chen, Kendrick Amezquita S., Xingming Wu,. A New Two-Stage Object Detection Network without RoI-Pooling
[C]. 第30届中国控制与决策会议论文集( 2), 2018: 1680-1685.

[本文引用: 1]

Yuanyuan Qin. RoI Pooling Based Fast Multi-Domain Convolutional Neural Networks for Visual Tracking[A]. Science and Engineering Research Center.Proceedings of 2016 2nd International Conference on Artificial Intelligence and Industrial Engineering (AIIE2016)
[C].Science and Engineering Research Center:Science and Engineering Research Center, 2016: 5.

[本文引用: 1]

Yuanyuan Qin, Shiying He, Yong Zhao, Yuanzhi Gong. RoI Pooling Based Fast Multi-Domain Convolutional Neural Networks for Visual Tracking
[P]. Proceedings of the 2016 2nd International Conference on Artificial Intelligence and Industrial Engineering (AIIE 2016), 2016.

[本文引用: 1]

Muhammad Anwar, Ms. Ramdani, Ahmad Fudhail Majid. The Effect of using Interactive Students’ Worksheet on Learning Achievement and Students’ Perception in The Basic Chemistry Course (Study on Reaction Rate)
[P]. Proceedings of the 1st International Conference on Advanced Multidisciplinary Research (ICAMR 2018), 2018.

[本文引用: 1]

Yi Hou, Hong Zhang, Shilin Zhou, Huanxin Zou, Paolo Bellavista . Efficient ConvNet Feature Extraction with Multiple RoI Pooling for Landmark-Based Visual Localization of Autonomous Vehicles
[J]. Mobile Information Systems, 2017: 1-14.

[本文引用: 1]

陈怡佳 . 基于Faster RCNN的目标检测系统
[D]. 哈尔滨理工大学, 2019.

[本文引用: 1]

郑书新 . 针对深度学习模型的优化问题研究
[D]. 中国科学技术大学, 2019.

[本文引用: 1]

丁鹏 . 基于深度卷积神经网络的光学遥感目标检测技术研究
[D]. 中国科学院大学(中国科学院长春光学精密机械与物理研究所), 2019.

[本文引用: 1]

Xudong Sun, Pengcheng Wu, Steven C. H. Hoi. Face detection using deep learning: An improved faster RCNN approach
[J]. Neurocomputing, 2018(299):42-50.

[本文引用: 1]

Sotiria Georgiou, Carine G. van der Boog, Nils Brüggemann, Stefanie L. Ypma, Julie D,. Pietrzak,Caroline A. Katsman. On the interplay between downwelling, deep convection and mesoscale eddies in the Labrador Sea
[J]. Ocean Modelling, 2019(135):56-70.

[本文引用: 1]

Frantisek Jabloncik, Libor Hargas, Dusan Koniar, Jozef Volak . Detection of static objects in an image using texture analysis
[J]. Transportation Research Procedia, 2019 ( 40):265-270.

[本文引用: 1]

Liqin Yang, Nong Sang, Changxin Gao . Vehicle parts detection based on Faster - RCNN with location constraints of vehicle parts feature point[P]
International Symposium on Multispectral Image Processing and Pattern Recognition, 2018.

[本文引用: 1]

Xiyang Zhu. Server monitoring system using an improved Faster RCNN approach[A]. Xiamen Institute of Electronics, Institute of Modern Circuit &amp; System Technology, Xiamen University.Proceedings of 2017 11th IEEE International Conference on Anti-counterfeiting, Security,and Identification(ASID)
[C]. Xiamen Institute of Electronics, Institute of Modern Circuit &amp; System Technology, Xiamen University:IEEE BEIJING SECTION(跨国电气电子工程师学会北京分会), 2017: 4.

[本文引用: 1]

Hong Xiao. Identification of Dangerous Goods in Human THZ Images[A]. Wuhan Zhicheng Times Cultural Development Co., Ltd.Proceedings of 2018 International Conference on Network, Communication, Computer Engineering (NCCE 2018)
[C]. Wuhan Zhicheng Times Cultural Development Co., Ltd:武汉志诚时代文化发展有限公司, 2018: 5.

[本文引用: 1]

Faghmous J H, Styles L, Mithal V, et al. EddyScan: A physically consistent ocean eddy monitoring application
[C]. 2012 Conference on Intelligent Data Understanding IEEE, 2012: 96-103.

[本文引用: 1]

Anderson S.P., Cooper C.K., Driver D.B., van Smirren, J. EddyNet: a measurement program for collecting real-time current profiles from the Gulf of Mexico
[P]. Current Measurement Technology, 2003. Proceedings of the IEEE/OES Seventh Working Conference on, 2003.

[本文引用: 1]

Faghmous J.H., Styles L., Mithal V., Boriah S., Liess S., Kumar V., Vikebo F., dos Santos Mesquita, M. EddyScan: A physically consistent ocean eddy monitoring application
[P]. Intelligent Data Understanding (CIDU), 2012 Conference on, 2012.

[本文引用: 1]

Qidan Zhu, Yanke Wang, Yunqian He, Xiao Hong . Object tracking with particles weighted by region proposal network
[J]. Multimedia Tools and Applications , 2019(78):12083-12101.

[本文引用: 1]

Hedieh Sajedi, Fatemeh Mohammadipanah , Seyyed Amir Hosein Rahimi. Actinobacterial strains recognition by Machine learning methods
[J]. Multimedia Tools and Applications, 2019(78):20285-20307.

[本文引用: 1]

He K, Zhang X, Ren S, et al. Deep residual learning for image recognition
[C]// Proceedings of the IEEE conference on computer vision and pattern recognition. 2016: 770-778.

[本文引用: 1]

Ri-Gui Zhou, Yu Cheng , DaQian Liu. Quantum image scaling based on sbilinear interpolation with arbitrary scaling ratio
[J]. Quantum Information Processing, 2019(18):267-285.

[本文引用: 1]

Ren S, He K, Girshick R , et al. Faster R-CNN: towards real-time object detection with region proposal networks
[C]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017(39):1137-1149.

[本文引用: 1]

Kim K.-H., Shim P.-S., Shin S. An Alternative Bilinear Interpolation Method Between Spherical Grids
[J]. Atmosphere 2019( 10):123-132.

[本文引用: 1]

Wei Qifen . Parametric Design and Application of Steel Anchor Box for Main Girder of Long Span Cable-Stayed Bridge
[J]. IOP Conference Series: Materials Science and Engineering, 2018,392:062007.

DOI:10.1088/1757-899X/392/6/062007URL [本文引用: 1]

He K, Gkioxari, G, Dollar P, et al. Mask R-CNN
[J]. Proceedings of the IEEE International Conference on Computer Vision (ICCV), 2017(99):2961-2969.

[本文引用: 1]

Yanling Du, Wei Song, Qi He, Dongmei Huang, Antonio Liotta, Chen Su , Deep learning with multi-scale feature fusion in remote sensing for automatic oceanic eddy detection
[J]. Information Fusion, 2019(49):89-99.

[本文引用: 1]

相关话题/数据 网络 海洋 遥感 实验