手机版
您的当前位置: 明翰范文网 > 范文大全 > 公文范文 > 采用全卷积神经网络与多波段遥感图像结合的湿地分类方法

采用全卷积神经网络与多波段遥感图像结合的湿地分类方法

来源:网友投稿 时间:2023-07-07 08:15:05 推荐访问: 卷积 神经网络 遥感

龚瑞昆, 刘昊晟,张仲,陈旭东

(1. 华北理工大学电气工程学院,河北 唐山 063210;
2. 河北省安装工程有限公司第二分公司,河北 唐山 063000)

卷积神经网络(Convolutional Neural Networks,CNN)在图像提取与识别方面具有较高的利用率,CNN具有优于其他方法的分类速度和精度,但相较于其他算法需要更多的样本进行训练,当训练样本数不足时,往往会因为样本数偏少而造成分类不高与稳定性较差等弊端。该实验以河北省唐山市曹妃甸区滨海湿地作为研究区域,对该区域进行土地利用分类,因研究区域相较于其他湿地较小,为避免训练样本不足影响分类及精度,拟采用多个卷积神经网络对湿地遥感图像进行特征提取,在提取特征点后,结合Lansat8 OLI遥感图像中波段4, 3, 2组成的真彩色图像,适合植被分析的波段5, 4, 3,以及利于波段显示与分析的波段5, 6, 4与波段6, 5, 4四组波段组合进行对比,对提取的特征点进行修正与补充,然后将这些特征作为新的数据集,利用改进的支持向量机进行湿地信息提取分类,最终根据湿地调查数据进行精度评价。为检验该方法在湿地提取与分类中的准确性,以卷积神经网络作为信息提取的基础,分别采用BP人工神经网络、不加入多波段遥感组合特征点校正的SVM、Stacking集成算法分别对研究区域进行分类,将实验结果与该方法分类精度进行对比,对有效改善湿地的分类精度进行研究。

1.1 研究区概况

曹妃甸滨海湿地是中国北方最大的滨海湿地,在国际上得到广泛研究[1,2]。内有鸟类自然保护区。并已成为集鸟类保护、环境改善、健康养生、商务、文化为一体的生态度假社区。该区域地理坐标为39°9′24″~39°14′28″N,118°15′42″~118°23′24″E[3]总占地面积为11 064 hm2。其中曹妃甸湿地保护区规划面积为 6 840 hm2,近年来平均气温为11.5 ℃,多年平均降水量为618.9 mm。研究区域的土地利用类型为林地、草地、灌木、湖泊、耕地、商户或建筑用地6类。图1所示为研究区域位置图。

图1 研究区位置图

1.2 数据采集与预处理

研究所需要的湿地遥感数据来源于夏秋两季2013年NASA与美国地质调查局(USGS)发射的Landsat8传输回的遥感影像为数据源,该卫星携带有陆地成像仪(Operational Land Imager ,OLI)与热红外传感器(Thermal Infrared Sensor ,TIRS)2种成像传感器,分辨率分别为30 m与100 m。OLI传感器拥有ETM+传感器的所有的波段,并且OLI传感器的波段5(0.845-0.885 μm)有效地避免了水汽的影响[4]。由表1 所示OLI传感器参数与用途可知,相较于其他传感器Landsat8 OLI能够更好地区分植被与无植被特征,更适合本研究对于研究区域湿地进行分类。表2所示为波段组合与用途。

表1 OLI传感器参数与用途

表2 波段组合与用途

由表1与表2可知,Landsat8 OLI在湿地分类覆盖变化、绿地分布、作物种类识别、植被种类识别等领域都具有一定的优势。

使用Landsat8卫星OLI传感器采集得到的30 m分辨率多光谱影像来源于中国地理空间数据云,影像获取时间为2019年8月2日,8月林地、草地、灌木、耕地等湿地类别光谱特征差别较大,便于信息提取与分类。对Landsat8的影像要经过辐射定标、利用ENVI5.3中的工具箱进行大气校正与正射校正,完成后进行分类研究。

该项研究采用野外数据调查与查阅文献资料相结合的方法对分类数据进行研究验证[5],获取时间为2021年6月21~25日,采集到的实地验证数据有6种:林地、草地、灌木、湖泊、商户或建筑用地、耕地,采取的样本个数分别为:50、50、50、30、50、50。采样分布如图2所示。在实地考察时,在调查区设置1 km×1 km的格网,用此格网涵盖整个研究区,为了能够简化采样过程,确保样点选取的准确性,去除公路与裸地等与分类不太相关 且影响较小的因素,同时利用卫星坐标对样本采集点进行统计。该项研究采用目视解译与实地调研相结合的方式进行分类数据的选择,最后将修正后与栅格化的调查数据用于分类的精度验证。

图2 研究区域样本点选择图例

其他用于实验的辅助数据包括大比例尺的河北省唐山市土地利用数据和河北省唐山市曹妃甸区行政边界矢量地图。提取Landsat8遥感图像中所研究区域的遥感影像用于全卷积神经网络湿地信息的提取与改进支持向量机的分类训练。

2.1 全卷积神经网络与改进的支持向量机结合的湿地分类法

在缺乏样本量的条件下,在SVM中直接训练CNN提取特征点,会因样本不足无法得到最优解,提出的FCN与多波段组合相结合对特征点进行选择提取,在利用改进后的支持向量机对该项研究中样本数量较少的研究区域进行分类能够有效地提高特征点获取的准确度,以此提高分类精度与SVM的泛化能力,该方法主要包括基于FCN模型的影响特征提取、多波段组合校正添加特征点与基于改进支持向量机的湿地,流程图如图3所示。

图3 全卷积神经网络(FCN)与支持向量机(SVM)的湿地分类流程

图3中提到的SegNet、UNet以及RefineNet为3种全卷积神经网络,SegNet采用编码器-解码器结构来实现像素级端到端的图像分类[6],将 VGG-16卷积神经网络的前13层引入编码器中,经过卷积层对影像特征进行提取,在每个卷积层后引入拟归一化层(Batch Normalization ,BN)和Relu函数加快网络的收敛速度,实现图像的分割。使用8个4层残差块,在模型基础上,使用2个残差块在SegNet中加入残差学习,在编码器模块使用19个双层残差模块与4个步长为2的池化层,卷积核数量为128,256,512分别有8个、12个与12个,在解码器部分双层残差块,以及残差块中各层的卷积核数量,与对应位置的卷积核数量相一致。实现低空间分辨率向高空间分辨率的图像的映射,用来提高模型的分割能力。UNet网络是U型对称结构的网络,其卷积层中的卷积核与采样的设置与SegNet保持吻合,RefineNet由自适应卷积、多分辨率和链式残差池化3部分组成包括37个卷积层、7个最大池化层、7个上采样层与一个Softmax其池化层中的卷积核与上采样设置,要保持与前2种全卷积神经网络保持一致,设置为3*3,卷积层卷积核数量设置值为64、128、256、512与1 024个。

为确保改进支持向量机的泛化能力与分类精度,将3种全卷积神经网络提取叠加的分类特征数据结合波段4,3,2真彩色遥感图像、利于湿地植被分类的波段5,4,3(右上)深红色为林地,且颜色越深,则林地越茂盛,在植被显示方面具有优势的波段5,6,4(左上)与有助于植被分析的波段6,5,4(右下),如图4所示。对所获得的特征点进行校正并结合光谱信息适当地添加或减少各个湿地地物分界处的特征点个数。

图4 基于多波段遥感图像的分类点校正

2.2 样本可分离性计算

样本的可分离性数值在一定程度上反映了样本选取的合理性,计算出的样本可分离度是(0~2,0~2)之间的数,可分离度小于1.8则证明样本间的可分离度不高,需要对样本点进行重新选择并加以修正。图5是研究区样本选择的可分离度,由图5中数据可知,样本的可分离度均大于1.8且接近2,数据选取具有可行性,可进行下一步分类实验。

图5 样本可分离度

2.3 分类精度评价指标

根据《湿地公约》结合曹妃甸滨海湿地实际情况[7],对结果进行简要分析,确定该实验的分类系统主要包括:林地、草地、灌木、湖泊、商户/建筑用地、耕地六种主要类型。为避免分类过拟合与支持向量机最优超参数,采用k折交叉验证法将训练样本分成均匀的k组(D1,D2,D3…DK)。将k-1组数据进行训练,剩余样本进行测试。分类后根据野外实地调研数据对分类结果进行精度评价[8],评价指标包括总体分类精度(Overall Accuracy,OA),Kappa系数,错分误差(Commission),漏分误差(Omission),生产者精度(Producer.Acc,PA)用户精度(User.Acc,UA)6个方面进行精度分析。计算公式如下:

(1)

(2)

Commision=1-UA

(3)

Omission=1-PA

(4)

(5)

(6)

xij表示陆地利用种类为j的样本数被分类为利用种类i的样本数。xi*表示样本总数被分类为i的数量。x*j代表总数利用类型真正为j的样本数,Sd为样本被准确分类的数量,n为验证样本的总数。

3.1 湿地分类结果

采用卷积神经网络,图6所示为多波段遥感图像特征点校正与改进支持向量机结合的湿地分类结果,参考对应的高分辨率影像,通过目视判别法进行对比,可知该方法对湿地的分类较为准确,与实地的高分辨率影像吻合程度较高。林地主要位于研究区域的中北部,而草地则较为均匀的分布在研究区域内,灌木则主要分布在研究区域的北部。

图6 分类结果显示

基于本文方法对研究区域湿地信息进行提取分类的总体分类精度为94.96%,Kappa系数为0.93,该方法能够较为精准地提取曹妃甸湿地植被类型并有效进行分类,其中林地与湖泊因为与其他地物具有明显的差异,具有较高的生产者精度与用户精度如表3所示;
而草地与林地则存在一定误差的错分,耕地的生产者精度较低,主要原因在于在信息提取的时期耕地与草地部分时段具有较为相似的光谱特征[9],在该项实验中出现较为明显的漏分,导致误差较为严重,难以用单一的分类器结合多波段遥感图像进行精确分类。草地出现32处错分,6处漏分,耕地共有8处错分,13处漏分。

表3 湿地分类混淆矩阵及精度

3.2 全卷积神经网络与其他分类器结合的分类结果

为验证改进支持向量机在湿地特征分类方面的准确性和有效性[10],该研究在基于全卷积神经网络信息提取与多波段遥感图像相结合的基础上,分别采用BP神经网络、不加入多波段遥感组合的SVM与采用全卷积神经网络与Stacking算法结合3种湿地分类方法进行对比,结果如图7所示。

图7 多种FCN与单一分类器的湿地分类结果

图7中,FCN、BP、RF分别为全卷积神经网络、BP神经网络和Stacking。表4所示为采用卷积神经网络与BP神经网络和随机森林单一分类器相结合的分类精度,其中OA为该方法的总体分类精度,相较于全卷积神经网络与支持向量机直接相结合的方法相比,总体分类精度要高14.59%,Kappa系数提高0.172 5,在对各类特征的分类精度上效果较为显著。相较于单一BP神经网络与单一全卷积神经网络图像总体分类精度分别提高8.68,6.80。Kappa 系数分别提高0.102 4,0.086 9。不加入多波段遥感图像特征点校正的方法分类精度最低。通过对比各项试验结果得出结论本实验采取的方法相较于其他几种方式具有最高的总体精度与Kappa系数,利用stacking集成学习算法利用多种分类器对全卷积与多波段遥感图像结合得到的特征点进行分类的方法,在具有较高的分类精度的情况下对耕地的精度要高于本方法。但本实验主要在于精准分类林地、草地、灌木信息 ,所以本实验中的方法在研究区域具有一定的可行性。

表4 采用全卷积神经网络结合多波段遥感图像与单一分类器的湿地分类精度

3.3 采用单一全卷积网络结合多波段与支持向量机分类结果

为检验多种全卷积神经网络和单一全卷积对湿地分类精度的影响,将SegNet、UNet和RefineNet分别单独提取湿地特征,对特征点进行修正之后,分别采用随机森林算法、支持向量机、BP神经网络进行分类,结果如图8所示。

图8 采用单一全卷积神经网络与Stacking算法的湿地分类比较

从总体分类精度可知,SegNet在3种单一分类器中具有最高的分类精度,各种分类方式精度均高于82%,在不与其他分类方法相结合的情况下单一的机器学习精度最差,且在各种卷积神经网络中具有较大的起伏。卷积神经网络对湿地的分类要优于支持向量机。因此可知,在训练样本数量不足的情况下,单一的机器学习并不能对湿地进行较为精准的分类。因此首先通过卷积神经网络对研究区域的遥感影像依据深层特征进行特征点提取,再根据Landsat8多波段遥感图像对提取的特征点进行修正,然后通过机器学习对图像进行分类,能够在一定程度上改善分类精度,避免数据缺失造成的过拟合现象[4]。

(1)本研究方法能够较为明显的有效提取湿地信息,总体分类精度为94.96%,Kappa系数为0.936。

(2)相较于全卷积神经网络与改进支持向量机直接结合,不引入多波段组合遥感图像校正的分类方法,总体分类精度与Kappa系数分别提高14.59%与0.171 6。

(3)与全卷积神经网络、多波段遥感图像结合其他分类算法(BP、Stacking)相比总体分类精度提高8.68%与6.80%。

(4)与单一全卷积神经网络RefineNet、SegNet、UNet结合改进支持向量机相比,该方法的总体分类精度分别提高12.1%、13.8%、11.4%。证明单一卷积神经网络结合机器学习对湿地分类精度并不高。

猜你喜欢波段向量卷积最佳波段组合的典型地物信息提取航天返回与遥感(2022年2期)2022-05-12向量的分解新高考·高一数学(2022年3期)2022-04-28基于3D-Winograd的快速卷积算法设计及FPGA实现北京航空航天大学学报(2021年9期)2021-11-02聚焦“向量与三角”创新题中学生数理化(高中版.高考数学)(2021年1期)2021-03-19卷积神经网络的分析与设计电子制作(2019年13期)2020-01-14从滤波器理解卷积电子制作(2019年11期)2019-07-04基于傅里叶域卷积表示的目标跟踪算法北京航空航天大学学报(2018年1期)2018-04-20基于PLL的Ku波段频率源设计与测试电子制作(2018年2期)2018-04-18小型化Ka波段65W脉冲功放模块制导与引信(2017年3期)2017-11-02L波段kw级固态功放测试技术电子制作(2017年8期)2017-06-05

明翰范文网 www.tealighting.com

Copyright © 2016-2024 . 明翰范文网 版权所有

Powered by 明翰范文网 © All Rights Reserved. 备案号:浙ICP备16031184号-2

Top