基于Sentinel-1A雷达数据和Sentinel-2A多光谱数据特征融合的地物分类
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
第40卷 第2期2021年5月 世 界 地 质GLOBALGEOLOGY
Vol 40 No 2
May2021 文章编号:1004—5589(2021)02—0438—07
基于Sentinel 1A雷达数据和Sentinel 2A多光谱数据
特征融合的地物分类
郑煜,陈圣波,陈彦冰,李安臻
吉林大学地球探测科学与技术学院,长春130026
摘要:基于光学影像受云雨等不良天气的影响,导致在地物分类时易造成数据信息缺失,而雷达影像
作为主动式成像,能够较好地克服这一缺陷。
笔者选取长春市净月开发区部分地块为研究区域,分别采用最小距离、最大似然和支持向量机3种分类方法,以S
entinel 1A雷达影像和Sentinel 2A多光谱影像为数据源,基于特征融合,提高地物分类精度。
结果表明:特征融合后影像的地物分类精度较单一的光学影像有明显提高,且与最小距离和最大似然相比支持向量机分类精度最高。
在无云层覆盖的情况下,融合后支持向量机分类精度达到9
7 94%,较光学影像提高8 11%;在有云层覆盖情况下,融合后支持向量机精度达到77 29%,较光学影像提高12 5%,尤其对水域和建筑区的识别精度有较大提高。
关键词:S
entinel 1A;Sentinel 2A;特征融合;地物分类;支持向量机中图分类号:TP79 文献标识码:A
doi:10 3969/j issn 1004 5589 2021 02 021收稿日期:2020 08 03;改回日期:2020 12 11
基金项目:吉林省省校共建计划专项(SXGJXX2017 2)与重大科技专项(71 Y40G04 9001 15/18)联合资助。
通讯作者:陈圣波(1967—),男,教授,博士生导师,主要从事空间遥感方面的研究。
E mail:chensb@jlu edu com
GroundobjectclassificationbasedonSentinel 1AradardataandSentinel 2Amultispectraldata
ZHENGYu,CHENSheng bo,CHENYan bing,LIAn zhen
CollegeofGeo explorationScienceandTechnology,JilinUniversity,Changchun130026,China
Abstract:Duetotheinfluenceofclouds,rainandotherbadweather,opticalimagesarepronetolosedatainformationingroundobjectclassification.Radarimages,asactiveimaging,canwellovercomethisdefect.PartoftheJingyueDevelopmentZoneinChangchunisselectedastheresearcharea,usingthreeclassificationmethods,namelyminimumdistance,maximumlikelihoodandsupportvectormachine,theSentinel 1AradarimageandSen tinel 2Amulti spectralimagearetakenasthedatasourcetoimprovethegroundobjectclassificationaccuracybasedoncharacteristicsfusion.Theresultsshowthattheclassificationaccuracyofcharacteristicsfusionimagesissignificantlyhigherthanthatofopticalimages,andthesupportvectormachineaccuracyisthehighestcomparedwiththeminimumdistanceandmaximumlikelihood.Intheabsenceofcloudcover,theclassificationaccuracyofsupportvectormachineafterfusionreaches97 94%,whichis8 11%higherthanthatofopticalimage.Inthecaseofcloudcover,theaccuracyofsupportvectormachineafterfusionreaches77 29%,whichis12 5%higherthantheopticalimage,especiallyfortheidentificationaccuracyofwaterareaandbuildingarea.
Keywords:Sentinel 1A;Sentinel 2A;characteristicsfusion;groundobjectclassification;supportvectormachine
0 引言
地物分类一般被视为遥感目标解译的初始阶段和关键环节。
光学遥感影像具有分辨率高、覆盖范围广和成本低等优点[1 2],传统利用遥感影像进行地物分类多基于光学影像[3 4]。
但在实际运用中,光学影像易受多云、多雨和多雾等不良天气的影响,不可避免地在地物分类中造成数据信息的缺失,增加分类难度。
合成孔径雷达(SyntheticAp ertureRadar,SAR)影像具有全天时、全天候、高分辨率和多极化方式等特点[5 8],弥补了光学影像易受不良天气影响的弊端,两种数据具有互补性,在土地利用、地形测绘、农作物分类、洪涝灾害监测、森林和湿地监测以及城市监测等实际应用中具有重要意义[9 14]。
目前,在结合SAR与光学影像进行地物分类的研究中,更侧重于通过不同的数据融合算法和多时相数据达到提高地物分类精度的目的[15 19]。
Peietal [15]提出了一种基于全极化SAR影像、极化相干矩阵特征、光学遥感影像光谱和纹理的多种特征融合和多分类器集成的遥感影像分类新方法,利用主被动遥感数据在不同地表景观类型提取上的潜力,有效地提取土地覆盖信息。
Liuetal [16]针对不同融合算法差异,对主成分分析(PCA)、Gram Schmidt(GS)、Brovey和小波变换4种融合算法进行比较,基于面向对象技术对旱地作物进行分类,结果表明融合后分类精度均有所提高,其中,GS和Brovey融合优于另外2种融合算法。
张海龙等[17]利用改进的SyntheticVariableRatio(SVR)算法融合RadarsatSAR与LandsatTM影像,采用BP神经网络模型进行监督分类,提高地物分类精度。
王宇航等[18]基于Gram Schmidt(GS)融合算法,对Quickbird影像和Radarsat 2全极化SAR影像进行融合,识别地表覆盖及森林类型,提高了总体分类精度。
Blaesetal [19]将光学影像和3~5幅SAR影像进行组合,用于作物识别,成功提高了作物分类精度。
Steinhausenetal [20]通过1幅Sen tinel 2影像和8幅Sentinel 1影像进行组合,改善了多云季风地区的土地利用和土地覆盖分类精度。
然而,直接通过不同的融合算法和采用不同时相影像进行融合分类时,数据量较大,易产生数据冗余。
笔者以Sentinel 1A雷达数据和Sentinel 2A多光谱数据作为数据源,通过分析提取有效特征信息,进行特征融合,以长春市净月开发区部分地块为研究区,分别对无云和有云覆盖条件下的地物进行分类,以探究雷达和光学影像特征融合对于地物分类的优势。
1 研究区域与数据预处理
研究区位于吉林省长春市净月开发区,经纬度范围为43°48′~43°50′N,125°27′~125°30′E,研究区面积为10km2。
该区域包括有林地、耕地、水域和建筑区等多种地物类型,且各种地物所占比例相当。
选取2019年7月24日的Sentinel 1A(简称S1)SAR数据和2019年7月28日的Sentinel 2A(简称S2)多光谱数据(无云)进行特征融合分类分析;选取2019年9月22日的S1SAR数据和2019年9月26日的S2多光谱数据(有云)分析受不良天气影响时,特征融合的分类优势。
S1卫星是哥白尼全球监测计划的第一颗环境卫星,于2014年4月3日发射。
本文采用IWGRD地距多视影像,宽幅为250km,地面分辨率为5m×20m。
利用欧空局的ESASNAP软件对S1数据进行辐射定标、多视、滤波和地形校正等预处理,并重采样为分辨率10m×10m的影像,采用投影参数为UTM(zone50)/WGS84。
S2卫星是“全球环境与安全监测”计划的第2颗卫星,于2015年6月23日发射。
本文选取S2影像的蓝、绿、红、近红外波段数据,利用欧空局的Sen2cor插件对S2影像进行辐射定标和大气校正等预处理,采用投影参数为UTM(zone50)/WGS84。
基于同时期GoogleEarth高分辨率影像,并结合实地考察,选取20个具有明显标志的建筑物拐点、道路交叉口和河流拐点等作为地面控制点,并确保在图幅中均匀分布。
在S1和S2数据预处理的基础上,利用地面控制点进行精确配准处理,配准误差控制在0 5个像元内。
裁剪出研究区域范围,裁剪后的研究区S1和S2数据如图1所示。
9
3
4
第2期 郑煜,等:基于Sentinel 1A雷达数据和Sentinel 2A多光谱数据特征融合的地物分类
a 7月24日S1数据;b 7月28日S2数据;c 9月22日S1数据;d 9月26日S2数据。
图1 研究区S1和S2数据
Fig 1 S1andS2dataofstudyarea
2 研究方法
基于S2多光谱数据,提取有效光谱特征信息,融合S1SAR数据纹理特征信息,分别采用3种分类方法对融合前后影像进行地物分类,并评价分类精度。
2 1 特征提取与图像融合
采用主成分分析法(PrincipalComponentAnal ysis,PCA),对S2数据进行光谱特征提取,结果显示前2个波段集中了原始影像98%以上的信息,完全可以代表原始影像的光谱信息(图2a),因此选取前2个波段作为S2影像的光谱特征数据。
基于灰度共生矩阵(GLCM)算法提取S1影像的纹理特征信息(图2b)。
对S2光谱特征信息和S1纹理特征信息基于Gram Schmidt(GS)进行特征层的图像融合(图2c)。
GS融合方法可以对参与融合的各波段进行最佳匹配,不受波段限制,较好地保留空间纹理特征信息和光谱特征信息。
2 2 分类方法与精度评价
基于最小距离(MinimumDistance,MD)、最大似然(MaximumLikelihood,ML)、支持向量机(SupportVectorMachine,SVM)3种分类方法分别对单一的S2(无云)影像和基于S2(无云)与同时期S1特征融合后影像进行地物分类,并采用混淆矩阵算法计算融合前后3种分类方法的总体分类精度和Kappa系数,评价最优算法,并采用最优分类方法,对单一的S2(有云)影像和基于S2(有云)与同时期S1特征融合后影像进行地物分类,探究在光学影像受不良天气影响时,融合SAR影像对地物分类的识别能力。
整体技术路线如图3所示。
3 结果与分析
3 1 无云影像分类结果与精度评价
根据研究区土地利用特点,将研究区分为4个类别,分别为水域、林地、耕地和建筑区。
以同时期GoogleEarth高分辨率影像为参考进行样本的选择,在S2(无云)数据中计算Jeffreys Matusita距离和感兴趣区域每个组合的TransformedDiver gence。
这两个参数的大小决定了训练样本选择的合理性,确保各个地物之间的可分离性均>1 9。
利用3种不同分类方法(MD、ML、SVM)分别对单一的S2(无云)影像和融合后影像进行分类,检验融合前后影像识别地物的能力,找出最优的分类方法。
分类结果如图4、5所示,可以看出,3种分类方法中,特征融合后影像的分类效果较融合前均有明显改善。
通过混淆矩阵算法,计算融合前后影像分类的总体分类精度和Kappa系数(表1)。
从表1中可以看出,采用MD、ML、SVM3种分类方法分别对融合前后影像进行分类时,SVM分类方法精度最高,融合前后分类精度分别为89 83%和97 94%;ML分类方法精度次之,融合前后分类精度分别为89 74%和97 59%;MD分类方法精度较差,融合前后分类精度分别为81 98%和88 91%。
比较融合前后的分类精度,3种分类方法中,S1和S2(无云)特征融合后影像的总体分类精度和kappa系数均高于单一的S2影像,其中,SVM分类精度较融合前提高了8 11%;ML分类精度较融合前提高了7 85%;MD分类精度较融合前提高
0
4
4 世 界 地 质 第40卷
a S1数据纹理特征提取;b S2数据光谱特征提取;c S1和S2数据特征融合。
图2 S1和S2数据特征提取和特征融合
Fig 2 S1andS2datacharacteristicsextractionandfusio
n
图3 研究方法技术路线
Fig 3 Researchmethodsandtechnicalflowchart
了6 93%。
由此可知,融合雷达影像和光学影像进行地物分类时有较大优势,且选择合适的分类方法对获得高精度的分类结果具有重要意义,本文SVM分类方法在分别对融合前后影像进行分类和融合后分类精度提高程度上均优于另外2种分类方法。
3 2 有云影像分类结果与精度评价
根据以上分类方法和步骤,使用S2(有云)影像结合同时期的S1影像,采用分类精度最优的SVM分类方法对地物进行分类,探究在光学影像
质量较差时,融合SAR影像能否提高分类精度。
如图6所示,分别为使用单一S
2(有云)影像对研究区进行分类结果和辅助S1影像进行特征融合后的分类结果,表2为融合前后分类精度。
由表2可知,融合后总体分类精度提高了12 5%,Kappa系数提高0 1711,较融合前有明显提高,其中,建筑区和水域的分类精度提高较大,建筑区识别精度提高了2
0 04%,水域识别精度更是达到了100%。
由此可见,在S2影像受不良天气影响时,如有云层覆盖情况下,辅助S1影像进行特征融合
1
44第2期 郑煜,等:基于Sentinel 1A雷达数据和Sentinel 2A多光谱数据特征融合的地物分类
a MD分类结果;b ML分类结果;c SVM分类结果。
图4 基于S2(无云)影像的分类结果
Fig 4 ClassificationresultsbasedonS2(cloudless)image
s
a MD分类结果;b ML分类结果;c SVM分类结果。
图5 基于S1和S2(无云)影像特征融合的分类结果
Fig 5 ClassificationresultsbasedonS1andS2(cloudless)imagecharacteristicsfusio
n
a S1和S2有云融合影像;b S2(有云)影像分类结果;c S1和S2(有云)融合影像分类结果。
图6 特征融合影像和特征融合前后SVM分类结果
Fig 6 CharacteristicsfusionimageandSVMclassificationresultsbeforeandaftercharacteristicsfusion
2
44 世 界 地 质 第40卷
表1 实验数据特征融合前后精度比较
Table1 Accuracycomparisonofexperimentaldatabeforeandaftercharacteristicsfusion
分类方法
单一的S2(无云)影像S1和S2(无云)特征融合影像
总体分类精度/%Kappa系数总体分类精度/%Kappa系数
MD81 980 740588 910 8383
ML89 740 851297 590 9657
SVM89 830 852797 940 9706
表2 验证数据特征融合前后精度比较
Table2 Accuracycomparisonofvalidationdatabeforeandaftercharacteristicsfusion
数据源
识别精度/%
水域耕地建筑区林地
总体分类精度/%Kappa系数
光学数据83 2257 0665 4467 0064 790 5001
融合数据100 0068 1285 4874 0277 290 6712
后分类精度有明显提高,尤其对建筑区和水域的识别。
4 结论
(1)采用3种不同分类方法(MD、ML、SVM)对地物进行分类时,SVM分类方法分类精度最高,ML分类方法次之,MD分类方法精度最低。
(2)基于S1雷达数据和S2多光谱数据进行特征融合后的影像,采用以上3种分类方法进行地物分类的分类精度,较单一的S2多光谱影像均有明显提高。
(3)在光学影像受不良天气影响时,如有云的情况下,融合雷达影像,对分类精度有较大提高,尤其是在建筑区和水域的分类中有较大优势。
参考文献:
[1]童小华,张学,刘妙龙.基于多光谱遥感影像分类的城镇用地变化研究[J].光谱学与光谱分析,2009,
29(8):2131 2135.
TONGXiao hua,ZHANGXue,LIUMiao long.Studyon
urbanlandchangebasedonmulti spectralremotesensing
imageclassification[J].SpectroscopyandSpectral
Analysis,2009,29(8):2131 2135.
[2]王碧辉,吴运超,黄晓春.基于高分辨率遥感影像的城市用地分类研究[J].遥感信息,2012,27(4):
111 115,122.
WANGBi hui,WUYun chao,HUANGXiao chun.Ur
banland useclassificationusinghighresolutionremote
sensingdata[J].RemoteSensingInformation,2012,
27(4):111 115,122.
[3]祁昆仑.基于视觉特征的高分辨率光学遥感影像多任务分类研究[J].测绘学报,2017,46(6):802.
QIKun lun.Multi taskclassificationofhighresolution
opticremotesensingimagesbasedonvisualfeatures
[J].ActaGeodaeticaetCartographicaSinica,2017,46
(6):802.
[4]万意,李长春,赵旭辉,等.基于SVM的光学遥感影像分类与评价[J].测绘地理信息,2018,43(6):
74 77.
WANYi,LIChang chun,ZHAOXu hui,etal.Optical
remotesensingimageclassificationandevaluationbasedon
SVM[J].JournalofGeomatics,2018,43(6):74 77.[5]邓鸿儒,崔宸洋,单文龙,等.基于高分三号卫星SAR影像的城市建筑区提取[J].地理信息世界,
2018,25(6):79 84.
DENGHong ru,CUIChen yang,SHANWen long,et
al.UrbanbuildingareaextractionbasedonGF 3Satel
liteSARimages[J].GeomaticsWorld,2018,25(6):
79 84.
[6]SaichP,BorgeaudM.InterpretingERSSARsignaturesofagriculturalcropsinFlevoland,1993—1996[J].
IEEETransactionsonGeoscienceandRemoteSensing,
2000,38(2):651 657.
[7]杨知,欧文浩,费香泽,等.基于高分辨率SAR影像和深度学习的输电杆塔智能识别研究[J].电测与仪
表,2020,57(4):71 77.
YANGZhi,OUWen hao,FEIXiang ze,etal.Smart
3
4
4
第2期 郑煜,等:基于Sentinel 1A雷达数据和Sentinel 2A多光谱数据特征融合的地物分类
identificationoftransmissiontowerbasedonhigh resolu
tionSARimageanddeeplearning[J].ElectricalMeas
urement&Instrumentation,2020,57(4):71 77.[8]樊勇,朱曦,张圣笛,等.基于多源遥感数据的淮河流域城镇扩张研究[J].农业机械学报,2016,47
(11):252 261.
FANYong,ZHUXi,ZHANGSheng di,etal.Urbanex
pansionofHuaiheriverbasinbasedonmulti sourceremote
sensingdata[J].TransactionsoftheChineseSocietyof
AgriculturalMachinery,2016,47(11):252 261.[9]WuYH,ZhangX,ZhengHX,etal.Investigatingchangesinlakesystemsinthesouth centralTibetanPlat
eauwithmulti sourceremotesensing[J].Journalof
GeographicalSciences,2017,27(3):337 347.
[10]AbdikanS,SanliFB.Comparisonofdifferentfusional gorithmsinurbanandagriculturalareasusingsar(palsar
andradarsat)andoptical(spot)images[J].Boletim
DeCiênciasGeodésicas,2012,18(4):509 531.
[11]SayginA.ExploringimagefusionofALOS/PALSARda taandLANDSATdatatodifferentiateforestarea[J].
GeocartoInternational,2016,33(1):21 37.
[12]Ferro FamilL,PottierE,LeeJS.Unsupervisedclassi ficationofmultifrequencyandfullypolarimetricSARim
agesbasedontheH/A/Alpha Wishartclassifier[J].
IEEETransactionsonGeoscience&RemoteSensing,
2017,39(11):2332 2342.
[13]ErinjeryJJ,SinghM,KentR.Mappingandassess mentofvegetationtypesinthetropicalrainforestsofthe
westernGhatsusingmultispectralSentinel 2andSAR
Sentinel 1satelliteimagery[J].RemoteSensingof
Environment,2018,216(5):345 354.
[14]WangJZ,QuJJ,ZhangWM,etal.Classificationoffull polarizationALOS PALSARimageryusingSVMin
aridareaofDunhuang[J].SciencesinColdandArid
Regions,2016,8(3):263 267.
[15]PeiL,PeiJD,KunT.Anovelremotelysensedimageclassificationbasedonensemblelearningandfeaturein
tegration[J].JournalofInfraredandMillimeter
Waves,2014,33(3):311 317.
[16]LiuF,ChenT,HeJ,etal.TheresearchondrylandcropclassificationbasedonthefusionofSentinel 1a
SARandopticalimages[J].TheInternationalAr
chivesofthePhotogrammetry,RemoteSensingandSpa
tialInformationSciences,2018,13:1041 1048.
[17]张海龙,蒋建军,吴宏安,等.SAR与TM影像融合及BP神经网络分类中的应用[J].测绘学报,
2006,35(3):229 233,239.
ZHANGHai long,JIANGJian jun,WUHong an,et
al.TheBPneuralnetworkclassificationbasedonthefu
sionofSARandTMimages[J].ActaGeodaeticaet
CartographicaSinica,2006,35(3):229 233,239.[18]王宇航,范文义,刘超逸.基于面向对象的QUICK BIRD数据和SAR数据融合的地物分类[J].东北
林业大学学报,2016,44(9):44 49.
WANGYu hang,FANWen yi,LIUChao yi.Anob
ject basedfusionofQUICKBIRDdataandSARdatafor
classificationanalysis[J].JournalofNortheastForest
ryUniversity,2016,44(9):44 49.
[19]BlaesX,VanhalleL,DefournyP.EfficiencyofcropidentificationbasedonopticalandSARimagetimeseries
[J].RemoteSensingofEnvironment,2005,96(3/4):
352 365.
[20]SteinhausenMJ,WagnerPD,BalajiN,etal.Combi ningSentinel 1andSentinel 2dataforimprovedland
useandlandcovermappingofmonsoonregions[J].
InternationalJournalofAppliedEarthObservationand
Geoinformation,2018,73:595 604.
4
4
4 世 界 地 质 第40卷。