高分辨率遥感影像中建筑物阴影检测与提取研究

合集下载

高分辨率遥感影像城区地物信息提取技术研究

高分辨率遥感影像城区地物信息提取技术研究
中规 则 的制 定要 针 对 不 同的 影 像 和 识 别 目标 具 体
通过以上对高分辨率遥感影像城 区信息提取 技术 的总结 与分 析 , 下面 给 出面 向对 象遥 感影 像 城
区地 物信 息 提取 技术 思路 的技术 框架 ( 图 1 . 见 )
在面 向对象遥感影像城区地物信息提取技 术
术 , 发遥感影 像智 能解 译 系统 显得 尤 其 重要 和 迫 开 切 。下 面将 根 据 遥 感 影 像 城 区地 物 信 息 的 自身 特 点 , 点 阐述遥感 技术在城 区地物信息 方面 的应用 。 重
理特征以及与周边地物的关系等信息 , 过于依赖建
筑 物 自身 的几 何特 征 , 易 出现识 别错 误 和漏 检测 容 的情 况 , 中低 层 建筑 物识 别 中由于 遮蔽 阴影 等影 在 响, 效果 较差 。 同时该类 方 法多用 构建 建筑 物模 型
中, 图像 分 割 、 征 提 取 与 目标 识 别 构 成 了 由低 层 特 到高 层 的三 大 任 务 。 目标 识 别 与 特 征 提 取都 以 图
定 制 , 具备 通 用 性 。而 整 个 过 程包 含 人 工 智 能 、 不 计算 机视 觉 、 式识 别 、 模 数学 模 型建 立等 相关 内容 。
树, 提取 粗 略 的建 筑 物 候 选 区 和 相 对 准 确 的 阴 影 区。通过 计算 相邻 近 阴影 对 象 和 建 筑 物 对 象 的关
系特 征 , 建立 简 单 的 知识 规 则 , 从 建 筑 物 候 选 区 可
2 面 向对 象 遥 感 影像 城 区信 息 提 取
2 1 面 向对 象遥 感 影像城 区信 息提取 的原理 .
1 遥 感 影像 城 区信 息提 取

基于遥感影像的建筑物变化检测与更新研究

基于遥感影像的建筑物变化检测与更新研究

基于遥感影像的建筑物变化检测与更新研究近年来,随着遥感技术的不断发展和普及,基于遥感影像的建筑物变化检测与更新成为了一个备受关注的研究领域。

建筑物的变化检测在城市规划、环境监测以及灾害评估等方面具有重要的应用意义。

通过对建筑物的变化进行监测和更新,可以及时发现城市发展的变化趋势,为城市的发展规划提供科学依据。

在遥感影像中,建筑物的变化检测通常包括建筑物的新增、减少以及形态发生变化等内容。

基于遥感影像进行建筑物变化检测的关键在于利用影像信息进行建筑物的提取和识别。

传统的建筑物监测方法主要依靠人工目视解译,效率低下且容易受主观因素影响。

而基于遥感影像的建筑物变化检测则可以利用计算机视觉和遥感影像处理技术,实现对建筑物的自动化识别和变化检测。

在建筑物变化检测的研究中,影像的预处理是非常重要的一步。

预处理包括影像的几何校正、辐射校正以及影像配准等工作。

通过影像的预处理,可以提高建筑物的提取精度和变化检测的准确性。

在建筑物的提取中,可以利用边缘检测、区域生长等算法对建筑物进行分割和识别。

同时,建筑物的特征提取也是建筑物变化检测中的一个关键环节,可以通过建筑物的形状、纹理、颜色等特征进行建筑物的识别和分类。

除了建筑物的提取和识别,建筑物变化检测还需要对建筑物的变化进行比对和分析。

通过建筑物的多时相影像进行变化检测,可以实现对建筑物的新增、拆除以及形态的变化等信息的提取。

在建筑物变化检测中,还可以利用时序遥感影像进行建筑物的历史变化分析,探究建筑物的发展规律和城市演变过程。

在建筑物变化检测研究中,遥感影像的时空分辨率是一个关键的因素。

不同的遥感传感器拥有不同的时空分辨率,影响着建筑物变化检测的精度和效率。

高分辨率的遥感影像可以提高建筑物的提取精度,但也增加了数据量和算法的复杂度。

因此,在建筑物变化检测研究中,需要综合考虑遥感影像的时空分辨率,选择合适的遥感数据进行建筑物变化检测。

随着深度学习技术的不断发展,基于深度学习的建筑物变化检测方法逐渐成为研究热点。

高分辨率遥感影像建筑物提取多路径RSU网络法

高分辨率遥感影像建筑物提取多路径RSU网络法

㊀㊀第51卷㊀第1期测㊀绘㊀学㊀报V o l.51,N o.1㊀2022年1月A c t aG e o d a e t i c ae tC a r t o g r a p h i c aS i n i c a J a n u a r y,2022引文格式:张玉鑫,颜青松,邓非.高分辨率遥感影像建筑物提取多路径R S U网络法[J].测绘学报,2022,51(1):135G144.D O I:10.11947/ j.A G C S.2021.20200508.Z H A N G Y u x i n,Y A N Q i n g s o n g,D E N G F e i.M u l t iGp a t h R S U n e t w o r k m e t h o df o rh i g hGr e s o l u t i o nr e m o t es e n s i n g i m a g eb u i l d i n g e x t r ac t i o n[J].A c t aG e od ae t i c a e tC a r t o g r a p h i c aS i n i c a,2022,51(1):135G144.D O I:10.11947/j.A G C S.2021.20200508.高分辨率遥感影像建筑物提取多路径R S U网络法张玉鑫,颜青松,邓㊀非武汉大学测绘学院,湖北武汉430079M u l t iGp a t hR S U n e t w o r k m e t h o df o rh i g hGr e s o l u t i o nr e m o t e s e n s i n g i m a g e b u i l d i n g e x t r a c t i o nZ H A N GY u x i n,Y A NQ i n g s o n g,D E N GF e iS c h o o l o fG e o d e s y a n dG e o m a t i c s,W u h a nU n i v e r s i t y,W u h a n430079,C h i n aA b s t r a c t:I n a c c u r a t eb o u n d a r i e s a n dh o l e sa r e t w om a j o r p r o b l e m sw h e ne x t r a c t i n g b u i l d i n g s f r o mh i g hGr e s o l u t i o n r e m o t es e n s i n g i m a g e sb y ac o n v o l u t i o nn e t w o r k.T os o l v et h e s e p r o b l e m s,w e p r o p o s e dt h e M P R S UGN e t(m u l t iGp a t h r e s i d u a l UGb l o c k n e t w o r k),w h i c h i s b a s e d o n t h eR S U(r e s i d u a l UGb l o c k).T h eR S U i s a b l e t o f u s e l o c a l f e a t u r e s a n dm u l t iGs c a l e f e a t u r e s,w i t h t h eh e l p o f t h ee n c o d e rGd e c o d e r s t r u c t u r ea n d t h e r e s i d u a l c o n n e c t i o n.H o w e v e r,as i n g l eR S U i sn o te n o u g h t o g a t h e r e n o u g h i n f o r m a t i o n,M P R S UGN e t p a r a l l e l sR S Ub l o c k s o f d i f f e r e n t s c a l e s b y t h em u l t iGp a t h s t r u c t u r ea n d e x c h a n g e s i n f o r m a t i o n a m o n g t h e s e b l o c k s t o f u r t h e r e n h a n c e t h e f e a t u r ea g g r e g a t i o n e f f i c i e n c y.E x p e r i m e n t a l r e s u l t s s h o w e d t h a t t h eM P R S UGN e t a c h i e v e d95.65%,88.63%p r e c i s i o n,a n d91.17%,79.31%I o Uo n0.3m r e s o l u t i o nW H Ua n d I n r i ab u i l d i n g d a t a s e t s,w h i c h s h o w e d t h e e f f e c t i v e n e s s o f t h e p r o p o s e dm e t h o d.I na d d i t i o n,c o m p a r e dw i t h t h eU2N e t, M P R S UGN e t i s m u c hl i g h t e r i nc o m p u t a t i o na n dr e d u c e st h ea m o u n to fm o d e l p a r a m e t e r sb y68.63%, d e m o n s t r a t i n g t h a t t h em e t h o d h a s s o m ea p p l i c a t i o n v a l u e.K e y w o r d s:h i g hGr e s o l u t i o nr e m o t es e n s i n g i m a g e;b u i l d i n g e x t r a c t i o n;m u l t iGs c a l e;c o n v o l u t i o n a l n e u r a l n e t w o r k s;m u l t iGp a t hF o u n d a t i o n s u p p o r t:S i c h u a nS c i e n c ea n dT e c h n o l o g y P r o g r a m(N o.2019Y F G0460)摘㊀要:针对卷积神经网络在提取建筑物的过程中,存在建筑物边界不准确和建筑物内部空洞等问题,提出以R S U模块(r e s i d u a l UGb l o c k)为核心的M P R S UGN e t(m u l t iGp a t h r e s i d u a l UGb l o c k n e t w o r k).该模块利用编码器G解码器结构和残差连接,实现了局部特征和多尺度特征的融合.由于一个R S U模块提取的信息有限,M P R S UGN e t进一步通过多路径结构并行了不同尺度的R S U模块,并在这些模块之间进行信息交换,提高了特征聚集效率.在分辨率为0.3m的W H U和I n r i a建筑物数据集上进行试验,精度分别达95.65%和88.63%,I o U分别达91.17%和79.31%,验证了本文方法的有效性.此外,本文方法相较于U2N e t,计算量明显降低,模型参数量减少68.63%,表明本文方法具有一定的应用价值.关键词:高分辨率遥感影像;建筑物提取;多尺度;卷积神经网络;多路径中图分类号:P237㊀㊀㊀㊀文献标识码:A㊀㊀㊀㊀文章编号:1001G1595(2022)01G0135G10基金项目:四川省科技计划(2019Y F G0460)㊀㊀高分辨率遥感影像建筑物提取在数字城市建设㊁地表动态变化监测及土地利用变更调查等应用中都具有重要的意义.但是高分辨率遥感影像细节丰富的特点也使得建筑物的尺度多变㊁结构复杂㊁外观各异,如何准确地从高分辨率遥感影像中提取建筑物目前仍是遥感影像处理与应用领域研究的热点和难点.传统建筑物提取的方法主要根据建筑物特有的光谱㊁纹理㊁几何和阴影等特性,人工设计合适的特征去区分建筑物和非建筑物区域[1G3].文献J a n u a r y2022V o l.51N o.1A G C S h t t p:ʊx b.s i n o m a p s.c o m[4]通过窗口H o u g h变换提取矩形建筑物的角点特征,实现矩形屋顶的提取,但当建筑物角点被遮挡时,无法精确地提取建筑物.文献[5]利用了遥感影像中建筑物受光照影响产生的阴影信息对建筑物自动定位,然而排列整齐的树木阴影可能会对其造成干扰.此外,D S M数据㊁L i D A R和S A R 数据等多源数据可以提供建筑物的高程信息,融合多源数据可以有效提高建筑物提取的精度[6],但获得满足精度条件的多源数据需要较高的成本,具有一定的局限性.总体而言,这些人工设计的特征会随着传感器质量㊁光照条件㊁建筑物风格产生较为明显的变化,只能处理特定的数据[7].近年来,卷积神经网络良好的特征表示能力,使其受到了广泛的关注,在自然语言处理㊁图像分割㊁目标检测等领域都有广泛应用[8G11].建筑物提取方法也由人工设计特征的传统方法转向学习特征的卷积神经网络方法.文献[12]提出的全卷积神经网络(f u l l y c o n v o l u t i o n a l n e t w o r k,F C N)将传统卷积神经网络中的全连接层转化为卷积层,首次实现端到端训练的语义分割网络.文献[13]以F C N为基础,提出U N e t,利用跳跃连接来融合深层特征和浅层特征,使得分割边缘得到提升.F C N是许多语义分割方法的基本框架,基于F C N的方法主要分为两种改进方向:①从特征图出发,扩大卷积神经网络的感受野,获取多尺度特征.文献[14]提出金字塔空间池化模块,融合不同尺度的池化后的特征图以获取全局依赖.文献[15]从原始影像中提取不同尺度的特征,之后在恢复尺度的阶段逐步融合粗糙的浅层特征及细粒度的深层特征,从而使得分割精度提升.②从原始影像出发,利用多尺度的原始影像作为输入,获取全局信息.文献[16]提出一种基于多尺度影像的全卷积神经网络,将原始影像进行不同尺度的下采样,之后分层地对其进行特征提取和融合.注意力机制[17G18]是近几年来提出的一种在空间或通道上捕获远程依赖的方法,能够有效地提高分割性能.文献[19]提出位置注意力模块和通道注意力模块去学习特征之间的空间依赖性以及通道间的相关性.位置注意力模块是对所有位置的特征加权求和,选择性地聚合各个位置的特征,使得远距离特征也可以得到关联.通道注意力模块整合所有通道之间的相关特征图,选择性地强调存在相互依赖的通道图.将两个注意力模块的结果融合可以获得更精确的分割结果.文献[20]通过输入不同尺度的影像,利用分层多尺度注意力机制,学习不同尺寸的物体在相应尺度上的权重,让网络自适应地选择最合适的分辨率来预测物体,但该方法网络结构较为复杂对硬件要求较高.与基于F C N的主流语义分割框架不同,文献[21]提出了一种高分辨率神经网络(h i g hGr e s o l u t i o nn e t w o r k,H R N e t),该方法可使特征图保持高分辨率,在高分辨率特征图中融入低分辨率特征图使其包含多尺度信息,为网络结构设计提供了新的思路.文献[22]设计了一种双层嵌套U N e t的网络结构U2N e t,能够捕获更多的上下文信息,在显著性检测任务中表现突出,但其参数量较多,训练效率较低.以往研究中,基于全卷积神经网络的建筑物提取方法基本框架以编码器G解码器结构为主[23G24].但是该框架在编码器阶段的多次池化易丢失空间信息,使得小型建筑物难以检测;同时在解码器阶段,通过跳跃连接融合浅层特征恢复细节的效果有限,还会从浅层引入一些粗糙特征,最终进一步加剧建筑物边界的不准确[25].除此之外,卷积神经网络提取的特征往往是局部的,基于F C N的方法缺乏对全局特征的有效利用,导致提取大型建筑物时存在不连续和空洞等情况,如图1所示.而过于关注全局特征,忽略局部特征,会导致边缘信息的缺失.如何高效利用全局特征和局部特征,是优化建筑物提取结果的关键.因此,受H R N e t和U2N e t启发,本文提出一种基于R S U模块的高分辨率遥感影像建筑物提取方法:M P R S UGN e t,能够在保持高分辨率语义信息的同时,融入全局特征,从而改善大型建筑物存在空洞㊁边缘分割不完整的问题.M P R S UGN e t 通过并行和级联R S U模块融合多尺度特征,之后将多个尺度的预测结果融合得到最终提取结果.在WHU和I n r i a建筑物数据集上的试验结果表明,本文方法提取建筑物精度高㊁边缘清晰㊁结构完整,相较其他主流方法泛化能力更强,参数较少.1㊀方法与原理本节首先介绍R S U模块的结构,然后对本文提出的M P R S UGN e t进行详细说明,最后阐述了本文方法训练过程中使用的损失函数.631第1期张玉鑫,等:高分辨率遥感影像建筑物提取多路径R S U网络法图1㊀建筑物提取结果示例F i g .1㊀T h e e x a m p l e r e s u l t s o f b u i l d i n g ex t r a c t i o n 1.1㊀R S U 模块R S U 模块是本文网络的主要构成部分,由简化的U N e t 结构和R e s N e t 的残差结构[26]组成,能够捕捉输入特征图的多尺度特征和局部特征.R S U 模块的超参数有L ㊁C i n ㊁C o u t 和C m i d ,分别代表编码器阶段的卷积层数㊁输入特征图的通道数㊁输出特征图的通道数和中间层的通道数.本文使用R S U GL (C i n ,C m i d ,C o u t )表示单个R S U 模块,结构如图2所示.R S U 模块的输入为通道数C i n 的特征图,首先通过一个3ˑ3的卷积,将输入映射为通道数为C o u t 的特征图,并同时从输入特征图中提取局部特征;然后通道数为C o u t 的特征图经过一个简化的编码器G解码器结构,其中编码器提取出多尺度特征,编码器阶段的池化次数为L G2,L 越大池化次数越多,感受野范围越大,多尺度特征便越丰富,解码器将多尺度特征编码成高分辨率的多尺度特征图;最后将第一步获得的通道数为C o u t 的特征图和高分辨率的多尺度特征图相加得到输出,使得局部特征和多尺度特征融合,保证特征图中的细节信息不被丢失.图2㊀R S U 结构F i g.2㊀R S Ua r c h i t e c t u r e 1.2㊀M P R S U GN e tM P R S U GN e t 的网络结构如图3所示,主要包括两个部分:多路径特征提取模块和多尺度特征融合模块.1.2.1㊀多路径特征提取基于编码器G解码器结构的卷积神经网络一般过程为:由高分辨率到低分辨率获取深层特征,再从低到高恢复分辨率得到输出结果,此过程中极易丢失细节信息.而H R N e t 的多路径结构能够有效地解决此问题,较好地保持特征图中的细节信息;其使用多个并行的子网络提取不同尺度的特征,然后将多尺度特征在子网络之间反复交换以充分融合多尺度特征.基于多路径结构与R S U 模块,本文提出多路径特征提取模块,详细架构如图3所示,不仅能提取多尺度特征,还能减少细节丢失.R S U 模块731J a n u a r y 2022V o l .51N o .1A G C S h t t p :ʊx b .s i n o m a ps .c o m 是多路径特征提取模块的主要组成部分,其利用编码器G解码器结构从特征图中提取多尺度特征,再将多尺度特征编码成高分辨率的特征图.多路径结构通过串联R S U 模块,能够保持高分辨率的特征表示,减少编码器下采样带来的细节丢失,保持高层语义信息和精确的空间定位信息,改善建筑物边界提取模糊及空洞现象.图3㊀M P R S U GN e t 结构F i g.3㊀M P R S U GN e t a r c h i t e c t u r e ㊀㊀M P R S U GN e t 的多路径特征提取模块由3条并行路径组成,特征图的空间分辨率分别为原始影像的1㊁1/4㊁和1/16.对于相邻路径之间的上㊁下采样,本文使用图4(c )㊁(f )所示的方法:上采样先对影像进行双线性上采样,再将低分辨率的特征图的通道压缩,去除冗余信息;下采样时首先扩大一倍通道数,以保存高分辨率的信息,再进行池化.除此之外,常用的上㊁下采样还有图4(a)㊁(d)对应的直接采样方法,但是这种方式很容易造成信息冗余和细节信息丢失.图4(b )㊁(e )对应的是没进行通道压缩和扩增的上㊁下采样,但存在一定程度的信息冗余和丢失.1.2.2㊀多尺度特征融合多尺度特征融合模块如图3所示,首先,利用1ˑ1卷积和s i gm o i d 函数对多路径特征提取模块输出的多尺度特征进行预测,得到每个尺度的分类结果;然后,将各个尺度上的分类结果上采样到输入尺寸后进行拼接;最后,将不同尺度的预测结果融合得到建筑物的最终预测结果.最终的预测结果汇聚了多个尺度的信息,使得反向传播和权重更新能够利用多尺度信息.1.3㊀损失函数本文使用二分类交叉熵损失函数[27]来指导网络学习,如式(1)所示㊀㊀L o s s =-ð(H ,W )(i ,j )[y i jˑl n p i j +(1-y i j )l n (1-p i j )](1)式中,(x ,y )为样本点坐标;(H ,W )为影像尺寸;y i j 表示样本点的真值;建筑物像素为1;非建筑物像素为0;p i j 表示模型预测样本点是建筑物像素的概率.2㊀试验与分析本节首先介绍试验所采用的数据集㊁结果评价指标及试验相关设置,之后阐述试验设计目的㊁结果及分析.2.1㊀数据集介绍为证明本文方法的有效性,选取WHU 建筑物数据集[7]和I n r i a 建筑物数据集[28]两个数据集进行综合性的试验,数据集的相关描述如下:(1)WHU 建筑物数据集包括航空和卫星影像数据集,以及相应的矢量文件和栅格影像,本文选取航空影像数据集进行试验.航空影像数据集中包含不同尺度㊁不同风格和颜色的建筑物,如图5所示,影像空间分辨率为0.3m ,每幅影像的大小为512ˑ512像素,共计8188张,其中训练集㊁验证集㊁测试集分别为4736㊁1036和2416张.(2)I n r i a 建筑物数据集包含5个地区(奥斯汀㊁芝加哥㊁基特萨普㊁蒂罗尔西部㊁维也纳)的航空正射彩色影像,每个地区分别有36张尺寸为5000ˑ5000像素的影像,空间分辨率为0.3m ,数据集示例如图6所示.数据集中5个地区的影像季节不同,照明条件不同,有建筑物密集的城市中心,也有建筑物稀疏的山区,可用于评估模型的泛831第1期张玉鑫,等:高分辨率遥感影像建筑物提取多路径R S U 网络法化能力.试验前,将每幅影像裁剪为500ˑ500像素的大小,最终获取18000张影像,其中随机抽取10832张作为训练集,1805张作为验证集,5363张作为测试集.图4㊀下采样和上采样方法F i g .4㊀T h em e t h o d s o f d o w n s a m p l e a n du p s a m ple 图5㊀WHU 数据集样例F i g .5㊀WHUd a t a s e t e x a m pl e s 931J a n u a r y 2022V o l .51N o .1A G C S h t t p :ʊx b .s i n o m a ps .c om 图6㊀I n r i a 数据集样例F i g .6㊀I n r i ad a t a s e t e x a m pl e s 2.2㊀评价指标本文采用精度(P r e c i s i o n )㊁召回率(R e c a l l )㊁F 1分数㊁交并比(I o U )4个指标来评价建筑物提取的准确性.精度指预测正确的建筑物像素数量占预测的建筑物像素数量的比例.召回率指预测正确的建筑物像素数量占真实的建筑物像素数量的比例.F 1分数综合考虑了精度和召回率的结果.I o U 是目标检测和语义分割中的常用指标,指预测的建筑物像素数量与真实的建筑物像素的交集和并集的比值.4种指标的计算公式如下P r e c i s i o n =T PT P +F P (2)R e c a l l =T PT P +F N(3)F 1=2ˑP r e c i s i o n ˑR e c a l lP r e c i s i o n +R e c a l l(4)I o U=T PF P +T P +F N(5)式中,T P 指真实建筑物像素的预测为建筑物像素的数量;T N 指背景像素预测为背景像素的数量;F P 指背景像素预测为建筑物像素的数量;F N 指真实建筑物像素预测为背景像素的数量.2.3㊀试验设置本文试验的硬件环境为I n t e l (R )C o r e (T M )i 7G7700C P U ,64G BR AM ,G P U N v i d i aT i t a nX p(显存12G B ),操作系统为W i n d o w s 10,编程环境为P y t h o n 3.6,P yt o r c h 1.2.0.为保证试验结果的客观性,所有试验网络均采用小批量梯度下降算法训练,使用A d a m 算法进行优化,初始学习率设置为0.001,批处理数量为4.训练过程中,所有试验网络从零开始对数据集迭代100次,并对影像进行随机水平翻转.2.4㊀试验及结果分析本节首先分析不同上㊁下采样方法对本文方法在WHU 数据集上性能的影响;使用WHU 和I n r i a 数据集进行对比试验,比较本文方法和U N e t [13]㊁D A N e t [19]㊁H R N e t v 2[21]㊁U 2N e t [22]4种方法提取建筑物的性能,对比方法中,D A N e t 基本框架设置为101层的R e s N e t ,H R N e t 多路径通道数设置为48㊁96㊁192㊁384.最后,为验证本文方法在性能和复杂度上面的平衡,对不同方法的复杂度进行分析.2.4.1㊀上下采样方法对比试验为探讨不同上㊁下采样方法对本文方法在WH U 数据集上性能的影响,在M P R S U GN e t 结构基础上使用1.2.1节中3种上㊁下采样方法进行试验,结果见表1.表1中结果显示,间接上㊁下采样方法与直接采样方法相比,精度和I o U 有一定提升,说明连续采样之间添加卷积层可以减少信息损失.本文的上㊁下采样方法较间接上㊁下采样方法各项指标均有提升,表明了上采样缩减通道数可以去除冗余信息,下采样扩大通道数可以保存一定的细节信息,验证了本文上㊁下采样方法的有效性.表1㊀不同采样方法对本文方法的影响T a b .1㊀I n f l u e n c e o f d i f f e r e n t s a m p l i n g me t h o d s (%)方法I o U精度召回率F 1分数直接上㊁下采样90.3694.9694.9194.94间接上㊁下采样90.6795.3694.8595.11本文上㊁下采样91.1795.6595.1195.38041第1期张玉鑫,等:高分辨率遥感影像建筑物提取多路径R S U网络法2.4.2㊀WH U数据集试验结果分析选取U N e t㊁D A N e t㊁H R N e t㊁U2N e t4种方法与本文方法进行对比,在WHU建筑物数据集上的可视化试验结果如图7所示.卷积神经网络依靠卷积核提取特征,获取感受野范围有限,故提取大型建筑物时,易产生空洞现象.针对该现象,本文方法使用R S U模块融合局部特征和全局特征,扩大感受野,并在不同尺度的R S U模块之间增加信息交互,进一步提升特征聚集率.由图7中可以看出,第1㊁第5个样例的影像中,存在颜色相似的地面和建筑物,一些对比方法不能正确地区分两者,导致出现将地面错误识别成建筑物的现象,而本文方法能够较为精确地区分颜色相近的地面及建筑物.此外,对于第1㊁第4个样例影像中颜色不一致的建筑物,本文方法可以准确提取,而对比方法错误地将其识别为背景,表明本文方法相较于其他方法能够更加充分地获取上下文信息.综上,根据目视评价,可以看出本文方法能够良好地适应不同场景的建筑物提取,在一定程度上可以改善建筑物边界不清晰㊁出现空洞的现象,且对于 同物异谱,异物同谱 现象可以进行较为正确地识别,结果优于其他几种对比方法.图7㊀WHU数据集上各种方法的建筑物提取结果F i g.7㊀B u i l d i n g e x t r a c t i o n r e s u l t s o f v a r i o u sm e t h o d s o n WHUd a t a s e t㊀㊀对WHU建筑物数据集的提取结果进行定量评价见表2.由表2可以看出,在WHU建筑物数据集上,与其他方法相比较,本文方法在各项指标上均达到最优,I o U达91.17%,精度达95.65%,F1分数达到了95.38%,与U N e t㊁D A N e t㊁H R N e t㊁U2N e t相比I o U分别提高了2.30%㊁1.96%㊁1.40%㊁0.83%,精度分别提高了2.18%㊁1.44%㊁0.73%㊁0.62%.表2㊀WH U数据集上各种方法的比较T a b.2㊀C o m p a r i s o no f v a r i o u sm e t h o d s o n WH Ud a t a s e t(%)方法I o U精度召回率F1分数U N e t88.8793.4794.7594.10D A N e t89.2194.2194.4094.30H R N e t89.7794.9294.3094.61U2N e t90.3495.0394.8294.93M P R S UGN e t91.1795.6595.1195.38141J a n u a r y 2022V o l .51N o .1A G C S h t t p :ʊx b .s i n o m a ps .c o m WHU 数据集上的试验结果从目视和定量评价上均验证了本文方法的优越性,表明了多路径结构结合编码器G解码器结构使得建筑物的局部特征和全局特征更好地聚合,能够更好地提取建筑物细节信息和全局特征.2.4.3㊀I n r i a 数据集试验结果分析I n r i a 数据集包含5个地区的建筑物影像,分别取其典型区域,提取结果可视化如图8所示,从上到下依次是奥斯汀㊁芝加哥㊁基特萨普㊁蒂罗尔西部和维也纳典型建筑物的提取结果.5个地区的建筑物风格不同,且由于成像时间不同,不同地区的建筑物光谱㊁阴影特征并不一致.由于树木遮挡㊁建筑物结构复杂等情况,I n r i a 数据集的建筑物边界不易提取.本文方法通过串联R S U 模块,保持高分辨率的语义表示,减少R S U 模块中编码器下采样带来的细节丢失,增加高层语义信息和精确的空间定位信息,改善建筑物边界提取模糊及空洞现象.由图8可以看出,本文方法对不同场景下的大型建筑物的空洞现象都有所改进,提取的建筑物边缘较其他方法更为清晰,且能够更加准确地识别细长型建筑物.对于环绕型㊁内部存在不规则背景的建筑物,本文方法能够较好地识别被建筑物环绕的背景.综合不同地区的建筑物提取的目视效果上看,本文方法能够较为良好地适应不同场景的大型建筑物提取,边缘较为完整,能够减少建筑物漏检结果,综合表现较优,表明使用多路径结构保持高分辨率的语义信息的可行性.图8㊀I n r i a 数据集上各种方法的建筑物提取结果F i g .8㊀B u i l d i n g ex t r a c t i o n r e s u l t s o f v a r i o u sm e t h o d s o n I n r i ad a t a s e t ㊀㊀对I n r i a 建筑物数据集的提取结果进行定量评价见表3.虽然该数据集较多建筑物被植被遮挡不易识别,但本文方法仍在各项指标上表现较好,I o U 达79.31%,召回率达88.29%,F 1分数达88.46%,与U N e t ㊁D A N e t ㊁H R N e t ㊁U 2N e t 相比I o U 分别提高了1.34%㊁0.93%㊁0.53%㊁2.95%,召回率分别提高了1.85%㊁2.20%㊁1.06%㊁1.59%,证明了本文方法的稳定性和优越性.在该数据集上,本文方法的提取精度稍低,本文分析是由于该数据集小型建筑物较密集,影像尺寸裁剪为500ˑ500像素,本文方法中存在较多的下采样操作,不能整除,导致部分细节信息丢失,精度241第1期张玉鑫,等:高分辨率遥感影像建筑物提取多路径R S U网络法较低,然而本文方法的精度较同样有多次下采样操作的U2N e t方法提升了2.13%,说明了多路径特征提取的有效性.可以进一步探索R S U模块合适的下采样次数,以使提取结果进一步提升.表3㊀I n r i a数据集上各种方法的比较T a b.3㊀C o m p a r i s o no f v a r i o u sm e t h o d s o n I n r i ad a t a s e t(%)方法I o U精度召回率F1分数U N e t77.9788.8386.4487.62D A N e t78.3889.7586.0987.89H R N e t78.7889.0487.2388.13U2N e t76.3686.5086.7086.60M P R S UGN e t79.3188.6388.2988.462.4.4㊀网络复杂度分析本文对5种方法的模型复杂度及效率进行了比较,结果见表4.模型的计算量和参数量使用t h o p工具包进行统计,模型计算量与输入尺寸有关,此处输入尺寸均设置为1ˑ512ˑ512ˑ3.训练时间为迭代一次WHU训练数据集所需要的时间,推理时间为在WHU测试数据集上推理所需要的总时间.由表4可以看出,本文方法计算量较少,仅是U2N e t的1/3,同时本文方法训练效率较高,仅需要U2N e t的一半训练时间.综合不同方法在WHU数据集和I n r i a数据集上的试验结果来看,本文方法在精度和效率方面取得了较好的平衡,有较高的应用价值.表4㊀各种方法复杂性及效率的比较T a b.4㊀C o m p l e x i t y a n d e f f i c i e n c y c o m p a r i s o n a m o n gv a r i o u sm e t h o d s方法计算量(G F L O P s)参数/M训练时间/(m i n/e p o c h)推理时间/sU N e t160.617.31094D A N e t282.866.61071420H R N e t40.722.46113U2N e t150.544.024266M P R S UGN e t81.613.8121163㊀结㊀论本文提出了M P R S UGN e t用于改善高分辨率遥感影像建筑物提取中边界不准确㊁大型建筑物提取结果存在空洞等问题.本文方法通过并行和级联R S U模块,能够从浅层和深层交叉学习到更丰富的全局特征和局部特征.在WHU和I n r i a数据集上的试验结果表明,本文方法相对其他方法具有更高的I o U和召回率,并在性能和效率上取得了良好的平衡,能够更好地提取边界信息,且对于不同场景的建筑物都能得到良好的分割结果,有较强的泛化能力.本文方法是基于像素级别的建筑物提取,结果会存在一些非建筑物斑块,如何将建筑物实体作为提取对象将是下一步研究方向.参考文献:[1]㊀P E S A R E S IM,G E R HA R D I N G E R A,K A Y I T A K I R EF.Ar o b u s t b u i l tGu p a r e a p r e s e n c e i n d e xb y a n i s o t r o p i c r o t aGt i o nGi n v a r i a n tt e x t u r a l m e a s u r e[J].I E E E J o u r n a l o fS e l e c t e d T o p i c s i n A p p l i e d E a r t h O b s e r v a t i o n s a n dR e m o t eS e n s i n g,2008,1(3):180G192.[2]㊀J I N X i a o y i n g,D A V I S C H.A u t o m a t e db u i l d i n g e x t r a c t i o nf r o mh ig hGr e s o l u t i o n s a t e l l i t e i m a g e r y i nu r b a n a r e a s u s i n gs t r u c t u r a l,c o n t e x t u a l,a n d s p e c t r a l i n f o r m a t i o n[J].E U RGA S I PJ o u r n a lo n A d v a n c e si n S i g n a lP r o c e s s i n g,2005,2005(14):2196G2206.[3]㊀HU A N GX i n,Z H A N GL i a n g p e i.M o r p h o l o g i c a l b u i l d i n g/ s h a d o wi n d e x f o rb u i l d i n g e x t r a c t i o nf r o m h i g hGr e s o l u t i o ni m a g e r y o v e ru r b a na r e a s[J].I E E EJ o u r n a lo fS e l e c t e dT o p i c s i n A p p l i e d E a r t h O b s e r v a t i o n s a n d R e m o t eS e n s i n g,2012,5(1):161G172.[4]㊀J U N GC,S C H R AMM R.R e c t a n g l ed e t e c t i o nb a s e do na w i n d o w e dh o u g ht r a n s f o r m[J].B r a z i l i a nS y m p o s i u m o fC o m p u t e rG r a p h i c a n d I m a g eP r o c e s s i n g.2004,2004(4):113G120.[5]㊀O KAO,S E N A R A SC,Y U K S E LB.A u t o m a t e d d e t e c t i o n o fa rb i t r a r i l y s h a p e d b u i l d i n g s i nc o m p l e x e n v i r o n m e n t s f r o mm o n o c u l a rV H Ro p t i c a l s a t e l l i t e i m a g e r y[J].I E E ET r a n sGa c t i o n s o nG e o s c i e n c e a n dR e m o t eS e n s i n g,2013,51(3):1701G1717.[6]㊀张亚一,费鲜芸,王健,等.基于高分辨率遥感影像的建筑物提取方法综述[J].测绘与空间地理信息,2020,43(4):76G79.Z HA N G Y a y i,F E IX i a n y u n,WA N GJ i a n,e t a l.S u r v e yo f b u i l d i n g e x t r a c t i o nm e t h o d s b a s e d o nh i g h r e s o l u t i o n r eGm o t e s e n s i n g i m a g e s[J].G e o m a t i c s&S p a t i a l I n f o r m a t i o nT e c h n o l o g y,2020,43(4):76G79.[7]㊀季顺平,魏世清.遥感影像建筑物提取的卷积神经元网络与开源数据集方法[J].测绘学报,2019,48(4):448G459.D O I:10.11947/j.A G C S.2019.20180206.J I S h u n p i n g,W E IS h i q i n g.B u i l d i n g e x t r a c t i o nv i ac o n v oGl u t i o n a l n e u r a l n e t w o r k f r o ma n o p e n r e m o t e s e n s i n g b u i l dGi n g d a t a s e t[J].A c t aG e o d a e t i c a e tC a r t o g r a p h i c aS i n i c a,2019,48(4):448G459.D O I:10.11947/j.A G C S.2019.20180206.[8]㊀G ON GJ i a n y a,J I S h u n p i n g.P h o t o g r a mm e t r y a n d d e e p l e a r n i n g[J].J o u r n a l o fG e o d e s y a n dG e o i n f o r m a t i o nS c iGe n c e.2018,1(1):1G15.341J a n u a r y2022V o l.51N o.1A G C S h t t p:ʊx b.s i n o m a p s.c o m[9]㊀D A IY u c h a o,Z H A N GJ i n g,H E M i n g y i,e t a l.S a l i e n t o b j e c td e t e c t i o n f r o m m u l t iGs p e c t r a l r e m o t es e n s i n g i m a g e sw i t hd e e p r e s i d u a l n e t w o r k[J].J o u r n a l o fG e o d e s y a n dG e o i nGf o r m a t i o nS c i e n c e,2019,2(2):101G110.[10]㊀S U NL o n g,WUT a o,S U NG u a n g c a i,e t a l.O b j e c t d e t e cGt i o n r e s e a r c ho f S A Ri m a g eu s i n g i m p r o v e d f a s t e r r e g i o nGb a s e dc o n v o l u t i o n a l n e u r a l n e t w o r k[J].J o u r n a l o fG e o d e s y a n dG e o i n f o r m a t i o nS c i e n c e,2020,3(3):18G28.[11]㊀H E H a o,WA N GS h u y a n g,WA N GS h i c h e n g,e t a l.A r o a d e x t r a c t i o nm e t h o d f o r r e m o t e s e n s i n g i m a g e b a s e d o ne n c o d e rGd e c o d e r n e t w o r k[J].J o u r n a l of G e o d e s y a n dG e o i n f o r m a t i o nS c i e n c e,2020,3(2):16G25.[12]㊀L O N GJ,S H E L H AM E RE,D A R R E L L T.F u l l y c o n v oGl u t i o n a ln e t w o r k sf o rs e m a n t i cs e g m e n t a t i o n[J].I E E ET r a n s a c t i o n s o n P a t t e r n A n a l y s i s a n d M a c h i n eI n t e l l i g e n c e,2015,39(4):640G651.[13]㊀R O N N E B E R G E R O,F I S C H E R P,B R O X T.UGN e t:C o n v o l u t i o n a l n e t w o r k s f o r b i o m e d i c a l i m a g e s e g m e n t a t i o n[C]ʊP r o c e e d i n g s o f t h e18t h I n t e r n a t i o n a l C o n f e r e n c e o nM e d i c a l I m a g eC o m p u t i n g a n dC o m p u t e rGA s s i s t e dI n t e rGv e n t i o n.M u n i c h,G e r m a n y:S p r i n g e r,2015:234G241.[14]㊀Z H A O H e n g s h u a n g,S H IJ i a n p i n g,Q IX i a o j u a n,e ta l.P y r a m i ds c e n e p a r s i n g n e t w o r k[C]ʊP r o c e e d i n g so f2017I E E EC o n f e r e n c e o nC o m p u t e rV i s i o n a n d P a t t e r nR e c o g n i t i o n(C V P R).H o n o l u l u,H I,U S A:I E E E,2017:6230G6239.[15]㊀L I N G u o s h e n g,M I L A N A,S H E N C h u n h u a,e t a l.R eGf i n e N e t:m u l t iGp a t hr e f i n e m e n tn e t w o r k s f o rh ig hGr e s o l uGt i o ns e m a n t i cs e g m e n t a t i o n[C]ʊP r o c e e d i n g s o f2017I E E EC o n f e r e n c e o nC o m p u t e rV i s i o n a n dP a t t e r nR e c o gGn i t i o n(C V P R).H o n o l u l u,H I,U S A:I E E E,2017:5168G5177.[16]㊀崔卫红,熊宝玉,张丽瑶.多尺度全卷积神经网络建筑物提取[J].测绘学报,2019,48(5):597G608.D O I:10.11947/j.A G C S.2019.20180062.C U I W e i h o n g,X I O N G B a o y u,Z H A N G L i y a o.M u l t iGs c a l ef u l l y c o n v o l u t i o n a l n e u r a l n e t w o r k f o rb u i l d i ng e x t r a c t i o n[J].A c t aG e o d a e t i c a e tC a r t o g r a p h i c aS i n i c a,2019,48(5):597G608.D O I:10.11947/j.A G C S.2019.20180062.[17]㊀V A S WA N IA,S HA Z E E RN,P A RMA RN,e t a l.A t t e nGt i o n i s a l l y o un e e d[C]ʊP r o c e e d i n g so f2017I E E E C o nGf e r e n c e o nN e u r a l I n f o r m a t i o nP r o c e s s i ng S y s t e m s.[S.l.]:I E E E,2017.[18]㊀WA N G X i a o l o n g,G I R S H I C KR,G U P T A A,e t a l.N o nGl o c a l n e u r a l n e t w o r k s[C]ʊP r o c e e d i n g so f2018I E E E/C V FC o n f e r e n c e o nC o m p u t e rV i s i o na n dP a t t e r nR e c o g n i t i o n.S a l tL a k eC i t y,U T,U S A:I E E E,2018:7794G7803.[19]㊀F UJ u n,L I UJ i n g,T I A N H a i j i e,e t a l.D u a l a t t e n t i o nn e tGw o r k f o r s c e n e s e g m e n t a t i o n[C]ʊP r o c e e d i n g s o f2019I E E E/C V FC o n f e r e n c e o nC o m p u t e rV i s i o n a n dP a t t e r nR e c o g n i t i o n(C V P R).L o n g B e a c h,C A,U S A:I E E E,2019:3141G3149.[20]㊀T A O A,S A P R A K,C A T A N Z A R O B.H i e r a r c h i c a lm u l t iGs c a l e a t t e n t i o n f o r s e m a n t i c s e g m e n t a t i o n[C]ʊP r o c e e d i n g so f2020I E E EC o n f e r e n c e o nC o m p u t e rV i s i o na n dP a t t e r nR e c o g n i t i o n.[S.l.]:I E E E,2020.[21]㊀S U N K e,X I A OB i n,L I U D o n g,e t a l.D e e p h i g hGr e s o l uGt i o n r e p r e s e n t a t i o n l e a r n i n g f o rh u m a n p o s e e s t i m a t i o n[C]ʊP r o c e e d i n g s o f2019I E E E/C V FC o n f e r e n c eo nC o m p u t e rV i s i o na n d P a t t e r n R e c o g n i t i o n(C V P R).L o n g B e a c h,C A,U S A:I E E E,2019:5686G5696.[22]㊀Q I NX u e b i n,Z HA N GZ i c h e n,HU A N GC h e n y a n g,e t a l.U2GN e t:G o i n g d e e p e rw i t hn e s t e dUGs t r u c t u r e f o r s a l i e n to b j e c t d e t e c t i o n[J].P a t t e r nR e c o g n i t i o n,2020,106:107404.[23]㊀L I U P e n g h u a,L I U X i a o p i n g,L I U M e n g x i,e t a l.B u i l d i n gf o o t p r i n t e x t r a c t i o n f r o m h ig hGr e s o l u t i o n i m a g e s v i as p a t i a l r e s i d u a l i n c e p t i o n c o n v o l u t i o n a l n e u r a l n e t w o r k[J].R e m o t eS e n s i n g,2019,11(7):830.[24]㊀F E N G W e n q i n g,S U IH a i g a n g,HU A L i,e t a l.B u i l d i n ge x t r a c t i o nf r o m V H R r e m o t e s e n s i ng i m a g e r y b yc o m b i n i n g a n i m p r o v ed de e p c o n v o l u t i o n a l e n c o d e rGd e c o d e ra r c h i t e c t u r e a n dh i s t o r i c a l l a n du s ev e c t o rm a p[J].I n t e rGn a t i o n a lJ o u r n a l o f R e m o t e S e n s i n g,2020,41(17):6595G6617.[25]㊀Z H U Q i n g,L I A OC h e n g,H U H a n,e t a l.M A PGn e t:m u l t i p l ea t t e n d i n g p a t h n e u r a l n e t w o r k f o rb u i l d i n g f o o t p r i n te x t r a c t i o nf r o mr e m o t e s e n s e d i m ag e r y[J].I E E ET r a n s a cGt i o n s o nG e o s c i e n c ea n d R e m o t eS e n s i n g,2021,59(7):6169G6181.[26]㊀H E K a i m i n g,Z HA N G X i a n g y u,R E NS h a o q i n g,e t a l.D e e p r e s i d u a l l e a r n i n g f o r i m a g e r e c o g n i t i o n[C]ʊP r o c e e dGi n g so f2016I E E E C o n f e r e n c eo n C o m p u t e r V i s i o na n dP a t t e r n R e c o g n i t i o n(C V P R).L a s V e g a s,N V,U S A:I E E E,2016:770G778.[27]㊀B I S H O PC M,H I N T O N G.N e u r a l n e t w o r k s f o r p a t t e r n r e c o g n i t i o n[M].O x f o r d:O x f o r dU n i v e r s i t y P r e s s,1995.[28]㊀MA G G I O R IE,T A R A B A L K A Y,C HA R P I A TG,e t a l.C a ns e m a n t i c l a b e l i n g m e t h o d s g e n e r a l i z e t oa n y c i t y t h ei n r i a a e r i a l i m a g e l a b e l i n g b e n c h m a r k[C]ʊP r o c e e d i n g so f2017I E E EI n t e r n a t i o n a lG e o s c i e n c ea n d R e m o t eS e n s i n gS y m p o s i u m(I G A R S S).F o r t W o r t h,T X,U S A:I E E E,2017:3226G3229.(责任编辑:张艳玲)收稿日期:2020G10G14修回日期:2021G07G21第一作者简介:张玉鑫(1997 ),女,硕士,主要研究方向为语义分割和建筑物提取.F i r s t a u t h o r:Z H A N GY u x i n(1997 ),f e m a l e,p o s t g r a d uGa t e,m a j o r si ns e m a n t i cs e g m e n t a t i o na n d b u i l d i n g e xGt r a c t i o n.EGm a i l:z h a n g y u x i n_w h u@w h u.e d u.c n通信作者:邓非C o r r e s p o n d i n g a u t h o r:DE N GF e iEGm a i l:f d e n g@s g g.w h u.e d u.c n441。

基于高分辨率遥感影像的地物提取方法

基于高分辨率遥感影像的地物提取方法

基于高分辨率遥感影像的地物提取方法地物提取是遥感技术在GIS领域中非常重要的应用之一。

基于高分辨率遥感影像的地物提取方法,通过对地物特征进行分析和分类,可以准确地提取出影像中的不同地物类型,为城市规划、环境监测、资源管理等提供有力的支持和指导。

本文将探讨几种常见的基于高分辨率遥感影像的地物提取方法,分别是数学形态学方法、目标检测方法和深度学习方法。

1. 数学形态学方法数学形态学是一种基于形状和结构的图像处理方法。

在地物提取中,数学形态学方法可以通过对图像进行形态学滤波、重建和形态学变换来实现地物的提取。

其中,形态学滤波可以去除噪声和平滑图像,形态学重建可以将图像中的目标进行填充和重建,形态学变换则可以将地物与背景进行分离。

数学形态学方法在处理遥感影像时,能够有效地提取出不同颜色、形状和大小的地物,具有较好的鲁棒性和稳定性。

2. 目标检测方法目标检测是一种通过分析图像中的目标特征,将其与背景区分开的方法。

在地物提取中,目标检测方法可以根据地物的纹理、形状、颜色等特征,通过采用阈值分割、边缘检测等算法来提取地物。

常见的目标检测方法包括K-means聚类算法、SVM分类器、随机森林等。

这些方法能够对遥感影像中的不同地物类型进行分类和提取,但对于复杂的地物类型和背景干扰较多的情况,提取效果有一定的限制。

3. 深度学习方法深度学习是一种基于神经网络的机器学习方法,近年来在遥感影像处理中得到广泛应用。

深度学习方法可以通过构建卷积神经网络(CNN)来实现地物的提取。

通过训练大量的遥感影像数据,使得神经网络能够自动学习地物的特征和规律,从而实现地物的准确提取。

相比于传统的方法,深度学习方法具有更高的准确率和鲁棒性,可以提取出更复杂、细节更丰富的地物。

综上所述,基于高分辨率遥感影像的地物提取方法包括数学形态学方法、目标检测方法和深度学习方法。

在实际应用中,可以根据具体的需求和数据特点选择适合的方法进行地物提取。

数学形态学方法具有较好的鲁棒性和稳定性,在处理简单地物时效果较好。

遥感中的阴影及应用

遥感中的阴影及应用

遥感中的阴影及其应用前言高分辨率遥感影像同时具有地图的几何精度和影像视觉特征,具有广泛的应用。

然而由于算法以及客观条件的限制,影像中存在着大量的阴影,它直接影响到地物边缘的提取、目标识别、分类等。

特别是近年来随着影像分辨率的提高,阴影现象更加突出,因此对其进行检测与补偿显得极其重要。

1. 研究的背景及意义高分辨率遥感影像已被应用在林业、旅游、水文水资源、名胜古迹的维修等领域。

这些应用的首要问题是对影像中的关键地物进行识别、提取。

理论上,高分辨率卫星遥感影像在经过像片倾斜引起的像点位移、图形变形以及地形起伏引起的投影差的纠正,并在消除大气折射,相机系统带来的误差后,应该准确反映地物特征。

然而,由于建筑物的影响以及太阳光的照射,出现阴影和影像遮蔽以及摄影死角。

随着遥感传感器灵敏度不断提高,影像分辨率从几十米到现在的厘米级。

原本在较低几何分辨率影像中不明显的阴影已经在影像中格外突出。

比如在农村地籍调查中,由于航片的分辨率很高,有很多高大建筑物或者树木阴影,给界址点解译造成很大的困难。

并且图解存在一定的误差。

机载多角度成像数据的空间分辨率能够达到5厘米,影像上的阴影非常突出。

阴影使得影像上阴影区域所反映的被摄目标的信息有所损失或受到干扰。

这在计算机影像处理中将直接影响到相应区域地物的边缘提取、目标识别和地表覆盖分类以及影像匹配算法的成功率等。

它不仅破坏了影像的视觉解译能力和审美效果,还影响了遥感影像作为地图产品的基本功能发挥。

如何消除遥感影像的阴影,具有越来越重要的现实意义。

总的来说,卫星遥感影像能够快速提供地球表面的信息,高分辨率卫星遥感开创了许多新的应用领域,但影像中的阴影是一个必须解决的问题。

它给像影像分类这样的一些应用带来了很大的麻烦。

比如在卫星遥感影像分类中,大多数的地形或地物阴影与水体的光谱特征相混淆,很难准确地它们进行分类。

阴影区地物表现在遥感影像上信息量相对较少,难以判读,在影像处理和工程应用中,影响操作进程,甚至产生错误结果。

高分辨率遥感影像的地物提取

高分辨率遥感影像的地物提取

高分辨率遥感影像的地物提取随着现代科技的发展,高分辨率遥感影像的应用越来越广泛,除了科研和监测用途,它还广泛应用于城市规划、自然资源管理、气候变化监测、国土安全等领域。

在遥感影像中,地物提取是一项重要的任务,该任务旨在从遥感影像中自动或半自动地提取感兴趣的地物,如建筑物、道路网络、森林等。

本文将探讨高分辨率遥感影像的地物提取技术。

一、遥感影像与地物提取遥感影像是指使用高分辨率卫星、航空器或无人机拍摄的图像,可以提供广阔的范围和多光谱相交的信息。

遥感影像可以捕捉地表的不同特征,如植被、土壤、建筑物等。

然而,遥感影像并不直接提供地物信息,因此需要对遥感影像进行地物提取。

地物提取是从遥感影像中自动或半自动地识别和提取地物的过程。

它是实现遥感应用的重要基础,如土地利用、资源管理、环境研究等。

在过去,地物提取主要基于人工解释和数字化,随着计算机技术的进步和遥感数据量的增加,由算法自动或半自动地提取地物的方法得到广泛应用。

二、高分辨率遥感影像的地物提取方法高分辨率遥感影像相对于低分辨率遥感影像存在较大差异,因此其地物提取方法也有所不同。

通常,高分辨率遥感影像的地物提取方法主要分为基于像素和基于对象两种。

1. 基于像素的地物提取基于像素的地物提取方法通常将像素分类为地物和非地物,其步骤包括:1)特征提取:通常采用灰度、纹理、形状、方向、局部二值模式等特征提取方法。

2)分类方法:包括二元分类和多元分类。

二元分类通常采用最大似然估计、支持向量机等方法。

多元分类可以使用决策树、随机森林等方法。

基于像素的地物提取方法的优点是运算速度快,可以提防噪声和光照等干扰因素,缺点是无法对地物形状和空间分布进行准确的提取。

2. 基于对象的地物提取基于对象的地物提取方法通常将遥感影像分割成不同的对象,再将对象分类为地物和非地物,其步骤包括:1)图像分割:通常采用区域生长、标度空间分割等方法将遥感影像分割成不同的对象。

2)特征提取:通常采用形状、纹理、对称性、光谱等特征提取方法。

关于城市建筑物提取方法的研究

关于城市建筑物提取方法的研究

关于城市建筑物提取方法的研究摘要:建筑物是城市的主要组成部分,是城市化建设的主要地物特征, 也是地理库中最容易发生变化和更新的部分, 更是城市化建设不断发展的重要体现。

虽然城市的占地面积仅占地球总面积的极少数,但是随着人口的增长,城市化的进程越来越快,城市建筑物的数量也在急剧上升,因此对建筑物的分析也占据了越来越重要的地位。

关键字:城市建筑物提取方法优化随着时间的变迁,科技的发展,遥感技术已经运用到了生活中的各个领域,遥感技术有很多优点,包括获取的数据量大,获取数据的范围大,获取数据的便利等等。

城市遥感技术主要涵盖了四个方面,有植被、水体、建筑物、道路。

而城市建筑物是城市的重要组成部分,是人类生产、生活最重要的场所, 也是城市布局、管理的重要组成部分,建筑物信息又与人类的生存息息相关,所以对建筑物信息的提取就显得尤为重要了,因为提取的建筑物信息可以在很多领域都发挥重要的意义。

一、城市建筑物的提取方法第一种分类方法:针对高分辨率城市建筑物提取,可以根据原理的不同分为以下三类:面向对象、基于特征和结合辅助信息。

(一)面向对象的方法。

面向对象分类方法是一种影像自动分析方法,是由多个像元组成的像元群,目标对象比单个像元分析更具有意义。

面向对象的方法主要包括分割影像、设计特征、提取建筑这三个步骤。

分割影像就是按照特定的算法对影像进行分割,得到对象后,将其是作为后续过程中的最小分析单元。

设计特征和提取建筑物是分割后的提取步骤。

(二)基于特征的方法基于特征的方法即利用建筑物本身的几何、纹理、光谱等特征进行城市建筑物提取。

基于边缘特征的主要原理是:在高分辨率遥感影像上,地物的边缘特征比较明显,通过边界灰度值的跳变检测出边缘后,进行建筑物的提取。

基于角点方法的主要原理是:矩形建筑物通常具有明显的的角点信息,因此很多研究者利用建筑物的角点特征对其进行初步的定位。

基于特征的方法主要依靠建筑物的一个或多个特征进行城市建筑物提取,该方法的鲁棒性较差。

高空间分辨率遥感影像建筑物提取方法综述

高空间分辨率遥感影像建筑物提取方法综述

高空间分辨率遥感影像建筑物提取方法综述张庆云;赵冬【期刊名称】《测绘与空间地理信息》【年(卷),期】2015(38)4【摘要】Building extraction from high resolution remote sensing images was very important for the cities spatial database updates, urban dynamic monitoring and building“smart city”.This paper describes the characteristics of the buildings in high resolution remote sensing images, and then introduces the four main building extraction methods, such as multi-scale segmentation extraction method, based on the edge and corner detecting and matching extraction method;based on region segmentations extraction method, and the ex-traction method that combination mathematical tools or new theories, discussed the research progress and the advantages and disadvan-tages of each method, summarized the problem should be solved and research trends on the building extraction.Have an outlook for the research prospects of the building extraction from high resolution remote sensing images, think that we can extract building from multiple sources or multi-temporal data and boundary edge detection and the supporting role of the shadow to improve the accuracy of building extraction, to improve the accuracy of building extraction and the utilization of high resolution of remote sensing images.%高空间分辨率光学遥感影像中建筑物的提取对城市空间数据库的更新、城市动态监测以及建设“智慧城市”等方面具有极其重要的意义。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

本科毕业论文题目:高分辨率遥感影像中建筑物阴影检测与提取研究院(部):土木工程学院专业:测绘工程班级:测绘081姓名:!@#$%^&*学号:1234567890指导教师:(!@#$%^&)完成日期:2012年6月10日目录摘要 (III)ABSTRACT (IV)1前言 (1)1.1研究背景 (1)1.2研究目地及意义 (1)1.3国内外研究的现状及发展 (1)1.4本文的研究内容及目标 (2)2遥感影像阴影特征与面向对象的提取原理 (4)2.1建筑物阴影的特点 (4)2.2建筑物阴影的光学性质 (4)2.3高分辨率遥感影像的特点 (5)2.4面向对象的阴影检测与提取原理分析 (6)3遥感影像的预处理 (7)3.1齐鲁软件园遥感影像的几何校正 (7)3.2软件园影像的分割 (8)4ECOGNITION8.0对遥感影像进行面向对象的矢量化处理 (11)4.1加载齐鲁软件园预处理后的遥感影像 (12)4.2分别对每个子影像进行CHESSBOARD棋盘分割 (13)4.3根据阴影的光学特性添加各种算法 (14)4.4分别对子影像进行多尺度分割 (15)4.5数据的导出 (18)5ARCGIS9.2对矢量化数据进行编辑处理 (19)5.1加载子影像及矢量化数据 (19)5.2属性表中添加地类名称和面积两字段 (20)5.3添加规则集分类提取建筑物阴影 (21)5.4难以提取部分采取人机交互方式提取 (25)5.5对提取完成的各矢量数据MERGE合并到同一图层 (27)5.6对数据进行最后编辑修改后测算阴影部分面积 (29)5.7数据整理保存 (31)6结论 (33)谢辞 (34)参考文献 (35)摘要近年来,高分辨率遥感影像在城市环境、精准农业、交通设施、林业测量、军事目标识别和灾害评估等人类日常生活中扮演了越来越重要的角色。

它们的特点是细节信息极为丰富,但是如何快速、自动识别和提取影像信息,使遥感技术应用的深度和精度得以提高面临新的挑战。

阴影是遥感影像中普遍存在的问题。

高分辨率卫星的高度相对较低,阴影更是高分辨率遥感影像的基本特征之一。

阴影的检测对于影像的目标识别以及信息恢复十分关键。

本文以提取齐鲁软件园高分辨率遥感影像上建筑物阴影研究目标。

采用面向对象的技术,通过图像分割,获取阴影对象,结合阴影对象的特征,设置特征函数并分类,最后获得阴影区域。

试验证明,该方法简单易行,较精确地提取了阴影区域。

关键词:遥感影像;阴影;阴影检测;面向对象;纹理特征The study of buildings s hadow Detection and Extraction Based on High Spatial Resolution Remote Sense ImageABSTRACTHigh-resolution satellite images have played a more important role in our life in recent years,such as we can extract more detailed information on urban environment,precision agriculture,traffic facility and military target from high resolution images.Though high resolution remote sensing images provide us richer information of surface targets,how to identify and extract features from these images automatically and quickly has been a big challenge.Shadow is a usual problem in remote sensing images,which blocks part of the surface information.it is particularly obvious in high spatial resolution satellite imagery.Shadow detection in high spatial resolution remote image is very critical for target identification and information recovering.In this thesis,we try to detect and extract the buildings shadow of QILU Software Park in High Spatial Resolution Remote Sense Image.In this paper,an object-oriented method is used to detect shadow area.Firstly,the image is processed by segmentation to attain the image objects,then the knowledge is established according to the analysis of the spectral character of the shadow area in the image.Finally,the shadow area could be extracted by using the rules defined in the knowledgebase.The experiment result shows that this method is valid.Key Words:High Spatial Resolution Remote Sense Image;Shadow detection;Shadow;Shadow compensation;Object-oriented1前言1.1研究背景近年来,随着遥感技术的发展,高分辨率遥感影像的应用越来越广泛。

与传统的中低空间分辨率遥感影像相比,高分辨率遥感影像具有细节更加清晰、信息更加丰富等特点,但同时也存在着较多的阴影区域。

这些阴影区域的地物信息量相对较少,难以判读,不仅影响了人们的视觉判读效果,而且在影像处理和工程应用中影响操作进程,甚至产生错误结果。

但同时阴影里同样包含了大量的关于物体表面及其反射率的信息,如能对阴影中信息进行增强或恢复,将有利于目标识别、地形分类和地质制图等。

同时,利用阴影的几何特性还可确定建筑物的高度信息等。

1.2研究目地及意义在图像处理中,阴影既存在有利之处,同时又存在不利之处。

有利之处在于,可以通过阴影的形状及大小来确定光源的强度、位置,以及确定障碍物的高度形状等,因此,可以用于测量建筑物的高度,在数字城市工程或数字地球工程的三维建模中,适当的加入物体模拟阴影,可以增强观察者的立体感和空间感。

相反,不利之处则表现为,图像明显的地物特征受到阴影噪声的模糊作用而变得不明显,进而影响数字影像的匹配精度和速度;水体和阴影的灰度值都比较低,在物体灰度值为主要基础的模式识别方法中,很可能将非水体的阴影区域划分为水体。

由于阴影对地表信息的遮挡,影响了数字信息的提取等。

因此,不管阴影存在的利弊,对阴影提取都是研究工作的必要阶段,它的提取精度直接关系着工作的对与错,因此,探测阴影区域,恢复这些阴影区域的亮度,使他们接近光照下的效果是一个必要的措施,对阴影的检测及提取具有重要的意义。

1.3国内外研究的现状及发展人们从20世纪80年代末才开始关注图像上阴影处理的问题。

经过十几年的研究,人们对于阴影的处理较以前有了很大的进步。

目前,阴影检测算法主要是基于阴影的性质来进行的,阴影的性质主要分为两类,一类是光谱性质,一类是几何性质。

最早的阴影检测算法是依据阴影区域的亮度要比周围亮度低的性质,这种方法是基于阈值的思想进行的,即把图像区域分成阴影区域和非阴影区域两类。

基于这种思想的阴影检测方法的关键在于闺值的选取问题。

阈值选择方法是图像处理领域最重要和最常用的方法。

目前较常用的阈值选择方法有以下几种:(1)最大熵原则阈值选择法,(2)零次矩判别阈值选择法,(3)直方图阈值选择法。

不管采用上述的哪一种阈值分割方法,图像阴影的检测效果不很理想。

一些学者也提出了一些检测方法,如基于直方图、基于同态系统消除阴影技术、归一化处理纹理分析等,但目前仍然处于试验研究阶段。

基于直方图技术就是统计影像数据灰度直方图,根据双峰法检测阴影,然后用直方图拉伸技术去除阴影,这样处理的结果是水体、低反射率地物等被当作阴影,而阴影区域反射率地物却被当作非阴影,显然误差较大,对大范围、复杂地形地物影像不适用;基于同态系统消除阴影技术是对影像反射率和辐射度分别进行处理,同时使用空间域和频率域技术,比基于直方图技术具有更稳健的效果,但是仍然避免不了同样的问题;归一化处理阴影去除法的实质是把阴影区像元灰度值按比例相应地放大,非阴影区像元灰度值按比例相应地缩小。

由于各种不同遥感影像DN值分布不一样,用一种模式求出归一化系数并不能应用于所有遥感影像,确定放大或缩小的系数是关键,也是难以解决的问题;纹理分析的方法为阴影检测分离和去除提出一些新的思路,即不仅利用遥感影像的光谱信息,而且利用影像纹理信息检测阴影,然而,到目前为止还不能取得完美的结果。

国内学者从事阴影检测方面的研究,也取得了一定的成果。

例如,何国金等在分析SPOT卫星图像阴影与建筑物实际高度关系的基础上以北京市为例,研究出了一种基于图像阴影特征的城市建筑物高度分级及其分布信息自动生成技术,取得了不错的效果。

高龙华运用传统的阴影校正模型,对模型的两个主要参数值:大气亮度、照射强度进行了求解,并以Quickbird为例进行了阴影去除。

孟春林、喻国庆等利用阴阳坡归一化探讨了TM影像上地形阴影的消除方法,难点就在于难以确定统一的标准来进行归一化,并且归一化处理也不能无止境的进行下去,否则,当阴坡和阳坡平均值相近时,影像的立体感就会消失;同时,阴坡的值因过分夸张而失真。

这种方法也只能适用于山坡形成的阴影,对城市中建筑物形成的阴影则不适用。

虽然人们对遥感影像阴影做了很多研究,但是集中于高分辨率卫星影像中的城市地区的研究不多。

因此,对城市地区高分辨率卫星遥感影像的阴影提取与去除方面还有待继续研究,研究方法也有很大的发展潜力。

1.4本文的研究内容及目标本文通过对高分辨率卫星影像阴影光谱特征、几何特征的分析,结合高分辨率卫星影像的特点,采用ecognition8.0软件,提出了一种面向对象的高分辨率卫星影像阴影检测方法。

相关文档
最新文档