一种大尺寸遥感图像基于内容检索的纹理特征提取算法_曾志明

合集下载

遥感图像处理中的特征提取技术使用教程

遥感图像处理中的特征提取技术使用教程

遥感图像处理中的特征提取技术使用教程遥感图像处理是一种利用航天器或飞机上的传感器通过接收地球表面反射或辐射的能量进行地球观测与地球表面信息获取的科学技术。

遥感技术广泛应用于农业、林业、地质勘探、环境监测等领域,为了更准确地获取地表信息,特征提取技术成为遥感图像处理中的重要环节。

本文将介绍遥感图像处理中常用的特征提取技术,并提供相应的使用教程。

一、像素级特征提取技术像素级特征提取技术是指从遥感图像中提取单个像素的特征信息。

常用的像素级特征提取技术有灰度级特征提取和颜色特征提取。

1. 灰度级特征提取灰度级特征提取是根据像素的灰度值来判断其特征属性。

常用的灰度级特征包括像素的亮度、纹理、形状等。

其中,像素的亮度可以通过计算灰度直方图或灰度矩来进行提取;纹理特征可以通过灰度共生矩阵、小波变换等方法来提取;形状特征可以通过边缘检测、形态学操作等技术来提取。

2. 颜色特征提取颜色特征提取是根据像素的颜色信息来判断其特征属性。

常用的颜色特征包括色调、饱和度、亮度等。

可以通过计算像素的颜色直方图、颜色矩来提取颜色特征。

二、对象级特征提取技术对象级特征提取技术是指从遥感图像中提取出具有独特形态和位置特征的地物对象。

常用的对象级特征提取技术有基于边缘提取的特征、基于区域分割的特征和基于形状提取的特征等。

1. 基于边缘提取的特征边缘是地物对象与背景之间的边界,通过提取边缘可以获得地物对象的形态信息。

常用的边缘提取算法包括Canny边缘检测算法、Sobel算子、Prewitt算子等。

通过对遥感图像进行边缘提取,可以得到地物对象的轮廓信息。

2. 基于区域分割的特征区域分割是将遥感图像划分为具有相似特征的连续区域的过程。

常用的区域分割算法有基于阈值的分割算法、基于区域增长的分割算法、基于边缘的分割算法等。

通过对遥感图像进行区域分割,可以得到地物对象的集合,并提取出地物对象的各种特征属性。

3. 基于形状提取的特征地物对象具有独特的形状信息,通过提取形状特征可以获得地物对象的几何性质。

遥感图像处理的图像增强和特征提取方法

遥感图像处理的图像增强和特征提取方法

遥感图像处理的图像增强和特征提取方法遥感图像处理是利用遥感技术获取和处理地球表面信息的一种方法。

在遥感图像处理中,图像增强和特征提取是两个重要的步骤。

本文将探讨遥感图像处理的图像增强和特征提取方法,并介绍其在实际应用中的重要性和挑战。

一、图像增强方法图像增强是通过改善遥感图像的质量和清晰度来提取更多有用信息的过程。

在遥感图像处理中,常用的图像增强方法包括直方图均衡化、滤波和增强算法等。

1. 直方图均衡化直方图均衡化是一种通过调整图像的亮度分布来增强图像对比度的方法。

它通过将图像的亮度值映射到一个更均匀分布的直方图来使图像的细节更加清晰。

直方图均衡化能够有效地提高图像的视觉质量,但在某些情况下可能会导致过度增强和失真。

2. 滤波滤波是一种通过去除图像中的噪声和不必要的细节来改善图像质量的方法。

在遥感图像处理中,常用的滤波方法包括中值滤波、高斯滤波和小波变换等。

这些滤波方法能够有效地降低图像的噪声和模糊度,提高图像的清晰度和边缘保持能力。

3. 增强算法增强算法是一种通过对图像进行像素级别的调整和处理来增强图像质量的方法。

常用的增强算法包括灰度拉伸、对比度增强和边缘增强等。

这些算法能够根据图像的特点和需求来调整图像的亮度、对比度和细节等,从而提高图像的视觉效果和信息提取能力。

二、特征提取方法特征提取是通过从遥感图像中提取和表示有用的信息和模式来分析和识别图像内容的过程。

在遥感图像处理中,常用的特征提取方法包括纹理特征提取、频谱特征提取和形状特征提取等。

1. 纹理特征提取纹理特征提取是一种通过分析图像中的纹理信息来描述和表示图像内容的方法。

常用的纹理特征提取方法包括灰度共生矩阵、小波变换和局部二值模式等。

这些方法能够有效地提取图像中的纹理细节和结构特征,用于图像分类、目标检测和地物识别等应用。

2. 频谱特征提取频谱特征提取是一种通过分析图像的频域信息来描述和表示图像内容的方法。

常用的频谱特征提取方法包括傅里叶变换、小波变换和高斯金字塔等。

基于高空间分辨率遥感图像的单木树冠轮廓提取技术研究

基于高空间分辨率遥感图像的单木树冠轮廓提取技术研究
This research progress has been made in the following areas: (1)firstly, spectral reflectance mechanisms of tree crown on high spatial resolution imagery has been researched in the different conditions of canopy density in forest stands of test area, and spectral reflectance library of tree crown was established. Then definition of the individual tree crown on the remote sensing imagery is given in this paper. It is summarized
基 于 高 空 间 分 辨 率 遥 感 图 像 的 单 木 树 冠 轮 廓 提 取 技 术 研 究
黄 建 文 届 博 士 生 中 国 林 业 科 学 研 究 院
万方数据
2011
分类号 UDC
S757.2
密级
公开
学位论文
基于高空间分辨率遥感图像的单木树冠轮廓提取技术研究 Research on Individual Tree rown Delineation Techniques Based on the High-Resolution Remote Sensing Imagery
万方数据
独创性声明
本人声明所呈交的学位论文是我个人在导师指导下进行的研究工作及取得的研究成 果。尽我所知,除了文中特别加以标注和致谢的地方外,论文中不包含其他人已经发表 或撰写过的研究成果,也不包含为获得本研究生培养单位或其它教育机构的学位或证书 而使用过的材料。与我一同工作的同志对本研究所做的任何贡献均已在论文中作了明确 的说明并表示谢意。

遥感图像纹理特征提取与分类分析研究

遥感图像纹理特征提取与分类分析研究

遥感图像纹理特征提取与分类分析研究遥感技术的应用日益广泛,其成像质量比传统的图像获取方式更高,并且可以获取超大范围的地表图像。

遥感图像的纹理特征可以帮助我们更好地理解地表特征,因此提取和分类遥感图像的纹理特征变得越来越重要。

纹理特征是指图像中局部区域的像素分布情况,通过计算这些分布的统计特征,如平均灰度、标准差、方差、对比度、能量等,可以描述该局部区域的纹理特征。

提取出一幅遥感图像中的纹理特征信息,可以帮助我们分析该图像中各个区域的地物类型和地貌特征。

在遥感图像处理中,纹理特征提取方法主要包括局部二值模式(LBP)、灰度共生矩阵(GLCM)、边缘方向直方图(EOH)等方法。

这些方法都是通过将图像划分为小的局部区域,然后计算每个区域的纹理特征,来描述整幅图像的纹理特征。

其中,局部二值模式是比较常用的方法,它可以通过将每个像素与其周围的像素比较,判断像素之间的灰度差异性来计算纹理特征。

而灰度共生矩阵则是通过计算不同灰度级别之间的出现次数来计算纹理特征,例如灰度共生矩阵可以被用来描述图像边缘的粗糙度和方向等信息。

纹理特征的分类分析通常利用机器学习方法。

机器学习是一个基于大量数据,自动分析和提取出数据特征、模式、规律的过程,其中深度学习是机器学习的一种方法,其特点是利用多层神经网络来建模并学习数据的复杂特征。

在遥感图像处理中,通常使用监督学习和无监督学习两种机器学习方法来进行遥感图像的分类分析。

在监督学习中,我们首先需要为每个像素标注其所属类别,这可以由人工标注或其他分类方法得到。

然后使用这些已知类别的像素和对应的纹理特征训练一个分类器,例如支持向量机(SVM)、决策树、随机森林等。

分类器可以根据训练数据学习到各个类别的纹理特征,然后利用这些特征对未知区域进行分类。

无监督学习则不需要对每个像素进行标注,而是采用聚类分析的方法,将具有相似纹理特征的像素划分为同一类别,例如k-means聚类算法。

在遥感图像处理中,通常将多个纹理特征用于分类分析。

基于分层特征提取和多尺度特征融合的高分辨率遥感影像水体提取深度学习算法

基于分层特征提取和多尺度特征融合的高分辨率遥感影像水体提取深度学习算法

http://www.renminzhujiang.cnDOI:10 3969/j issn 1001 9235 2024 02 006第45卷第2期人民珠江 2024年2月 PEARLRIVER基金项目:国家重点研发计划项目(2022YFC3002701)收稿日期:2023-06-13作者简介:盛晟(1996—),女,博士研究生,主要从事径流模拟与预报等方面研究。

E-mail:shengsheng@whu.edu.cn通信作者:陈华(1977—),男,教授,主要从事水利信息化、流域水文模拟等方面的研究。

E-mail:chua@whu.edu.cn盛晟,万芳琦,林康聆,等.基于分层特征提取和多尺度特征融合的高分辨率遥感影像水体提取深度学习算法[J].人民珠江,2024,45(2):45-52.基于分层特征提取和多尺度特征融合的高分辨率遥感影像水体提取深度学习算法盛 晟1,万芳琦2,林康聆1,胡朝阳3,陈 华1(1.武汉大学水资源工程与调度全国重点实验室,湖北 武汉 430072;2.江西省自然资源测绘与监测院,江西 南昌 330009;3.福建省水利水电勘测设计研究院,福建 福州 350001)摘要:高精度的水体提取有助于水资源监测和管理。

目前基于遥感影像的水体提取方法缺乏对于边界质量的重视,造成边界划分不准确,细节保留度低的问题。

为了提升遥感影像水体提取的边界与细节的精度,提出了一种基于多尺度特征融合的高分辨率遥感影像水体提取深度学习算法,包括分层特征提取模块与融合多尺度特征的堆叠连接解码器模块。

分层特征提取模块中,引入了通道注意力结构,用于整合高分辨率遥感影像中水体的形状、纹理和色调信息,以便更好地理解水体的形状和边界。

在融合多尺度特征的堆叠连接解码器模块中,进行了多层次语义信息的堆叠连接,并加强了特征提取,同时捕捉了广泛的背景信息和细微的细节信息,以实现更好的水体提取效果。

在自行标注的数据集与公开数据集上的试验结果表明,模型的准确率达到了98.37%和91.23%,与现有的语义分割模型相比,提取的水体边缘更加完整,同时保留细节的能力更强。

遥感图像处理中的特征提取方法

遥感图像处理中的特征提取方法

遥感图像处理中的特征提取方法遥感图像处理指的是利用遥感技术获取的遥感图像进行分析、处理和去除噪声等操作,以提取出有效的信息和特征。

而特征提取是遥感图像处理的一项重要技术,在遥感图像处理中应用广泛。

本文将介绍遥感图像处理中的特征提取方法及其应用。

一、直方图均衡化直方图是表示一幅图像中像素强度分布的曲线,直方图均衡化是一种图像增强的技术。

在遥感图像处理中,直方图均衡化可以用来增强图像的对比度,同时突出图像中的特征,从而提高图像的可视化效果。

二、形态学处理形态学处理是对图像进行形状和结构分析的一种方法。

形态学处理在遥感图像处理中的应用主要是为了提取图像中的特征信息。

形态学处理包括膨胀、腐蚀、开运算、闭运算等操作,可以去除噪声、填充空洞和提取图像中的特征等。

三、边缘检测边缘检测是从图像中提取边缘的一种技术。

边缘可以表示图像中物体的边界,通过对边缘进行分析,可以提取出图像中的结构信息和几何信息。

边缘检测在遥感图像处理中应用广泛,可以用来提取河流、道路、建筑物等具有线状结构的特征。

四、频域分析频域分析是将图像从空域转换到频域,从而分析图像的频率特征。

频域分析包括傅里叶变换、小波变换等方法。

在遥感图像处理中,频域分析可以用来提取图像中的纹理特征和波形特征,例如提取森林、草地、水体等的纹理特征。

五、特征提取算法特征提取算法是对图像进行分析和处理,以提取出具有代表性的特征信息。

特征提取算法包括直方图分析、特征值分析、主成分分析等方法。

这些方法可以从图像中提取出具有代表性的特征信息,例如提取岛屿、湖泊、山脉等的特征信息。

综上所述,特征提取是遥感图像处理中的一项重要技术。

通过直方图均衡化、形态学处理、边缘检测、频域分析和特征提取算法等方法,可以提取出图像中的特征信息,从而达到分析、处理和识别等目的。

在未来,随着遥感技术的不断发展和应用,特征提取技术也会不断升级和优化,进一步提高遥感图像处理的效率和精度。

基于人工智能的高分卫星影像信息提取前沿进展

基于人工智能的高分卫星影像信息提取前沿进展

基于人工智能的高分卫星影像信息提取前沿进展肖振强1张静依11 北京航天析木科技有限公司,北京 1001011 引言目前,全球卫星遥感产业正处于快速发展的鼎盛时期,新兴技术不断出现、有竞争力的商业航天企业蓬勃发展高分卫星遥感数据已经呈现出大数据的数据量大、类型繁多、速度快、时效性强、潜在价值大等典型特征。

遥感大数据的价值不在其海量,而在其对地表多粒度、多时相、多方位、多层次的全面反映,在于隐藏在遥感大数据背后的各种知识。

因此,有必要研究适用于高分卫星影像的自动处理和数据挖掘方法,显著提高高分数据的利用效率,加强高分卫星数据在环境遥感、城市规划、地形图更新、精准农业、智慧城市等方面的应用效力。

传统基于像元光谱统计特征的无监督机器学习分类识别技术对于高分遥感影像效果不好,利用单一的方法已经不能满足高分、高光谱、高准确率的要求。

基于机器学习理论,研究集成学习、半监督学习和主动学习的集成,充分挖掘遥感图像分类中大量未标记样本的有用信息,用以扩充少量已标记样本,增强分类器的能力,提高分类的精度。

2 人工智能技术的优势2.1优于遥感影像传统解译方法基于卫星遥感影像的人工智能机器学习算法,能够改变传统遥感数据处理耗时长、效率低等弊端,自动提取全国范围的遥感信息,以变化监测信息产品、专题信息产品等形式,向信息服务商、互联网平台商以及政府信息部门提供高时效、低成本、更便捷基础空间信息,最终为政府应用、商业情报、互联网运营等提供定制服务。

2.2适用于卫星遥感大数据挖掘与传统的时空数据挖掘相比,遥感大数据挖掘具有一定的复杂性:首先,遥感大数据海量、高维性的特点使得数据挖掘的搜索空间异常巨大,对传统的时空数据挖掘理论与方法提出巨大的挑战;其次,遥感大数据仅仅只有小部分维度与时空模式密切相关,其余的不相关或相关性很小的维度会产生大量的噪声,从而掩盖真实的时空模式;最后,遥感大数据所涉及的数据类型复杂多样,结构化、半结构化数据并存,对时空数据挖掘所依赖的数据库提出很高的要求。

遥感影像解译中的纹理特征提取方法与实践指南

遥感影像解译中的纹理特征提取方法与实践指南

遥感影像解译中的纹理特征提取方法与实践指南引言:纹理特征是遥感影像解译中的重要信息之一,可以提供有关地物和地表类型的详细信息。

纹理特征提取是利用图像处理和分析技术来定量描述和分析纹理特征的过程。

本文将介绍一些常用的纹理特征提取方法,并提供一些实践指南,以帮助研究人员和从业人员在遥感影像解译中更好地运用纹理特征。

一、纹理特征提取的方法1.统计特征提取法:统计特征提取法是最常用的纹理特征提取方法之一、它基于对图像区域的像素值统计进行分析,包括均值、标准差、方差、最值等统计量。

这些统计特征可以用来描述纹理的均匀性、粗糙度和细节等信息。

2.结构特征提取法:结构特征提取法是基于图像的空间结构进行分析的方法。

其中,灰度共生矩阵(GLCM)和灰度差异共生矩阵(GLDM)是常用的结构特征提取方法。

GLCM通过计算灰度级之间的相对位置关系,描述纹理的对比度、方向、平滑度等特性;GLDM则描述不同灰度级之间的寻找熵、对比度等特性。

3.频域特征提取法:频域特征提取法是将图像转换到频域进行分析的方法。

其中最常用的方法是对图像进行傅里叶变换,并计算其频谱特征。

频域特征能够提供关于纹理重复性和变化的信息。

4.模型特征提取法:模型特征提取法是利用数学模型对纹理进行建模,并从模型中提取特征。

其中,小波变换是常用的模型特征提取方法之一、小波变换能够捕捉到图像中的局部特征,提供更详细的纹理信息。

二、纹理特征提取的实践指南1.数据选择:选择与研究目标相关的高质量遥感影像数据进行分析。

确保数据清晰、分辨率适中,以获取更准确的纹理特征。

2.区域选择:选取具有代表性的区域进行分析。

遥感影像往往包含大量的信息,为了减少冗余和噪声,可以选择感兴趣的区域进行特征提取。

3.特征选择:根据研究目标选择适当的纹理特征。

不同的纹理特征可以提供不同的信息,因此需要根据需求进行选择。

4.参数设置:为提取特定纹理特征,需要根据实际情况设置合适的参数。

这些参数包括窗口大小、灰度级数量、邻域距离等。

遥感图像纹理特征提取的研究

遥感图像纹理特征提取的研究

摘要随着遥感技术的快速发展,遥感图像已经广泛应用于工业、农业和军事等领域中。

其中,遥感图像分类是其重要组成部分。

遥感数据源的增多,人们对遥感数据处理分析方法和手段也在不断发展,新的分类特征及分类方法都在不断的涌现。

有效特征的提取及分类器的选取是决定分类效果的关键。

本文针对可见光遥感图像,采用纹理特征作为分类特征。

本文首先研究了传统的统计纹理特征如:共生矩阵纹理特征、灰度差分纹理特征、行程长度纹理特征、Tamura 纹理特征以及灰度信息特征的提取方法。

基于类内、类间方差标准,本文从所提取的统计纹理特征中选取出了具有较强分类能力的纹理特征作为有效分类特征。

接下来本文将与大多数哺乳动物的视觉表皮简单细胞的二维感受野模型具有相似的性质的Gabor滤波器引入到纹理特征的提取中。

本文详细介绍了Gabor滤波器的定义与构造方法,针对不同的遥感景物类别构造了对纹理有较强分类能力的Gabor滤波器。

对于Gabor滤波图像,本文以直方谱特征描述纹理,用于分类。

论文最后研究了最近邻分类器及神经网络分类器,并通过分类实验证实了Gabor滤波器结合直方谱特征的分类性能优于传统的统计纹理特征。

关键词:遥感图像分类纹理特征Gabor滤波器直方谱特征分类器AbstractWith the development of remote sensing technology, remote sensing images have been widely utilized in industry, agriculture and military affairs. Remote sensing classification is very important to all these applications. Now, many features and classifiers have been proposed. The extraction of efficient features and the selection of classifiers are pivotal for classification.This thesis employs texture features for remote sensing classification. The contents of this thesis could be summarized as follow. First, it introduces the definition of traditional statistical texture features such as: co-occurrence features, gray-level difference features, run-length features, Tamura features and gray-level information features. Based on the criterion of variances between & intra classes efficient features have been chosen among the extracted features. Secondly, The Gabor filter with the ability of simulating the biological vision has been used for texture features extraction. After the definition of Gabor filter and construction method, this thesis constructs series of Gabor filters with strong ability for classification. Spectrum histogram features has been applied to describe texture information of images processed by Gabor filters. Lastly, the thesis does some research on nearest neighbor classifiers and neural network classifiers and the experiment demonstrates that Gabor filter combined with spectrum histogram features yield higher accuracy than traditional statistical texture features.Key Words: Remote sensing classification Texture features Gabor filter Spectrum histogram features Classifiers目录摘要 (I)Abstract (III)1 绪论1.1 论文研究的背景和意义 (1)1.2 研究现状 (2)1.3 论文研究内容 (4)1.4 论文的结构安排 (4)2 纹理特征2.1 纹理的一些基本概念 (5)2.2 纹理分析方法 (14)2.3 特征归一化策略 (15)2.4 (实验结果 (18)2.5 本章小结 (19)3 Gabor滤波器3.1 Gabor滤波器的提出 (20)3.2 Gabor滤波器的构造 (21)3.3 本章小结 (28)4 Gabor直方谱纹理特征4.1 Gabor方向选择通道 (29)4.2 直方图特征的提取 (30)4.3 Gabor直方谱特征的提取 (32)4.4 Gabor滤波器通道选择 (33)4.5 特征提取结果 (35)4.6 本章小结 (38)5 分类器5.1 K-近邻分类算法 (39)5.2 神经网络分类器 (41)5.3 本章小结 (45)6 实验结果 (46)7 全文总结与展望7.1 论文的主要研究内容 (48)7.2 论文的特色 (48)7.3 需要进一步研究的工作 (48)致谢 (49)参考文献 (50)附录1 攻读硕士学位期间发表的论文目录 (54)1 绪论1.1 论文研究的背景和意义遥感作为采集地球数据及其变化信息的重要技术手段,在世界范围内的许多政府部门,科研单位和公司得到了广泛的应用。

如何进行高分辨率遥感影像处理和特征提取—操作指南

如何进行高分辨率遥感影像处理和特征提取—操作指南

如何进行高分辨率遥感影像处理和特征提取—操作指南随着遥感技术的不断发展,高分辨率遥感影像的获取和处理已经成为现代地理信息科学和遥感应用的重要组成部分。

本文将介绍如何进行高分辨率遥感影像处理和特征提取,并提供一些实用的操作指南。

一、数据获取与预处理在进行高分辨率遥感影像处理和特征提取之前,我们首先需要获取合适的遥感数据。

这可以通过卫星或无人机获取。

对于特定的研究领域或项目需求,选择合适的遥感影像数据非常重要。

常见的高分辨率遥感影像数据包括Landsat、Sentinel、QuickBird等。

一旦获取到了所需的影像数据,我们就可以进行预处理来优化数据质量。

预处理的步骤包括去除影像中的云和阴影、大气校正、辐射校正等操作。

二、影像增强与分割高分辨率遥感影像通常包含大量的信息,但这些信息往往被掩盖在噪声和杂散信息中。

因此,在特征提取之前,我们需要对影像进行增强和分割,以凸显目标特征。

影像增强可以通过直方图均衡化和滤波等技术实现。

而影像分割则将影像划分为一组连续的区域,以便更好地提取各个区域的特征。

这些区域可以通过基于像素的分割算法或基于区域的分割算法来获取。

三、特征提取与分类特征提取是高分辨率遥感影像处理的关键步骤。

提取准确的特征可以为后续的分类和分析提供重要的基础。

常用的特征包括形状、纹理、光谱和空间特征等。

形状特征可以通过计算目标的各类几何特征来获取,如周长、面积、紧凑性等。

纹理特征可以通过灰度共生矩阵和小波变换等方法进行提取。

光谱特征则利用影像的不同波段之间的差异来表达目标的光谱信息。

空间特征则关注目标之间的相对位置和空间关系。

提取到的特征常常需要进行分类和识别。

分类是将影像中的不同目标分配到指定类别的过程。

常用的分类算法包括马尔可夫随机场、支持向量机和人工神经网络等。

这些算法可以利用一些已知类别的样本数据进行训练,然后将训练得到的模型应用到未知数据中。

这样,我们就可以实现对影像中各个目标进行自动识别和分类的工作。

一种高分辨率土地覆盖遥感图像纹理特征提取算法(IJIGSP-V10-N12-3)

一种高分辨率土地覆盖遥感图像纹理特征提取算法(IJIGSP-V10-N12-3)

I.J. Image, Graphics and Signal Processing, 2018, 12, 21-28Published Online December 2018 in MECS (/)DOI: 10.5815/ijigsp.2018.12.03An Efficient Texture Feature ExtractionAlgorithm for High Resolution Land Cover Remote Sensing Image ClassificationA.V. Kavitha1,21Research Scholar, Department of computer science, Jawaharlal Nehru technological university –Kakinada, Kakinada,Andhra Pradesh, India2Associate professor, Sri. A.B.R. Government degree college, Repalle, Guntur (Dt), Andhra Pradesh, India.Email: anubrolukavitha@Dr. A. Srikrishna33Professor and HOD, Department of Information and Technology, RVR JC College of engineering, Chowdavaram,Guntur, Andhra Pradesh, India.Email: atlurisrikrishna@Dr. Ch. Satyanarayana44Professor, Department of computer science, Jawaharlal Nehru technological university - Kakinada, Kakinada AndhraPradesh, India.Email: chsatyanarayana@Received: 01 August 2018; Accepted: 20 September 2018; Published: 08 December 2018Abstract—Remote sensing image classification is very much essential for many socio, economic and environmental applications in the society. They aid in agriculture monitoring, urban planning, forest monitoring, etc. Classification of a remote sensing image is still a challenging problem because of its multifold problems. A new algorithm LCDFOSCA (Linear Contact Distribution First Order Statistics Classification Algorithm) is proposed in this paper to extract the texture features from a Color remote sensing image. This algorithm uses linear contact distributions, mathematical morphology, and first-order statistics to extract the texture features. Later k-means is used to cluster these feature vectors and then classify the image. This algorithm is implemented on NRSC ‘Tirupathi’ area 2.5m, 1m colo r images and on Google Earth images. The algorithm is evaluated with various measures like the dice coefficient, segmentation accuracy, etc and obtained promising results.Index Terms—Remote sensing images, mathematical morphology, texture features, linear contact distributions, first order statistics, image classification.I.I NTRODUCTIONImage segmentation and image classification are significant tasks in any remote sensing image analysis. Classified land cover or land use remote sensing images have various socio, economic and environment applications like agriculture monitoring, urban planning, forest monitoring, change detection, forest fire detection, detection and monitoring of volcanoes, road extraction, river extraction, monitoring of ocean ridges, etc [1, 2, 3, 4, 5, 6, 7, 8]. Many techniques have been proposed in the literature for the classification of a high resolution remote sensing image. Few of them include pure pixel-based techniques, techniques involving mathematical morphology, seed growing techniques, watershed algorithms, wavelets, Markov random fields, Grayscale co-occurrence matrices, neural networks, graph theory, etc [9, 10, 11, 12, 13, 14, 15]. Classification techniques involving only single pixel values may not perform well always as the spatial context is missing. Many texture feature extraction algorithms are mentioned in literature [12, 16, 17, 18], with the help of which the spatial parameter also could be considered along with the pixel values.Mathematical morphology suits very well for remote sensing images and was a proved tool for featuring textured objects [2, 3, 4, 5, 13, 19, 20, 21, 22, 23]. Also, any digital image could be considered as a random closed set and contact distributions are tools which are used to describe the distributional properties of random spatial structures from outside the structure [24, 25]. Distributions to the first contact for increasing test sets contained in the void are called as contact distributions and can be very well used for exploratory data analysis of random patterns [25]. If the test set or structuring element is a line segment, those contact distributions are called as linear contact distributions. In this paper, a new algorithm "Linear Contact Distributions and First Order Statistics Classification Algorithm" (LCDFOSCA) has beenproposed. In this algorithm, texture features of every pixel are extracted with the help of mathematical morphology [13, 14, 26], linear contact distributions (LCD) [24, 25] and first-order statistics (FOS) [27]. The texture features thus extracted are clustered with the help of the K-means clustering algorithm and finally, the classified image could be displayed.Paper is organized as follows. Section 2 deals with methodology, section 3 presents results and discussions and section 4 concludes the paper with the discussion of future scope.II.M ETHODOLOGYIrene Epifanio and Pierre Soille have proposed a supervised texture feature algorithm [28] to segment a remote sensing image using LCD. Here, some training set is required to segment the image as the features extracted cannot be clustered as they do not converge with any clustering algorithm. Hence, a new unsupervised algorithm LCDFOSCA was proposed in this paper which calculates features for every pixel and later all these features could be clustered even with the k-means algorithm. No training set is required to classify the image.The flow of the algorithm is explained in the flowchart as given in Fig.1.Fig.1. Flowchart of methodology.Initially the given image 'I' is converted into a grayscale image 'GI'. From this grayscale image 'GI', to enhance the textural properties, four binary images B1, B2, B3, and B4 are extracted. From each binary image, and for every pixel, four features are extracted with the help of LCD. As 4 binary images are available, 16 features are extracted for each pixel. Similarly, four morefeatures are extracted for every pixel using FOS. Thus in total 20 features are extracted for every pixel. After completing extracting 20 features for all the pixels in the image, these feature vectors are classified using the k-means algorithm and are finally classified. The process of generation of binary images and extraction of texture features is explained in more detail in the coming sections.A.Generation of binary imagesIn this paper, prior to calculating LCD’s of every pixel, the given image is converted into four binary images to highlight the texture patterns present in the image [28,31]. For this purpose,(1) Initially, the given image ‘I’ is converted into a grayscale image ‘GI’.(2) From image ‘GI’, two threshold values ‘th1’ and ‘th2’ are to be estimated.(3) To estimate the value ‘th1’, first estimate a value ‘th’ from image ‘GI’, with the help of OTSU method [29, 30]. Multiply ‘th’ with maximum intensity value ‘255’ to get ‘th1’ [31].(3) With the help of th1, the grayscale image ‘GI’ is converted into binary image ‘BIM’, by thresh olding image ‘GI’ with value ‘th1’. All values less than ‘th1’ in image ‘GI’ are taken as ‘1’ and remaining as ‘0’ to get the binary image ‘BIM’.(4) To calculate the second threshold value ‘th2’, generate external gradient image ‘EI’ from ‘GI’ with a flat 3 x 3 structuring elemen t with value ‘1’. Threshold ‘th’ is estimated from ‘EI’ with the help of OTSU method [29, 30, 31]. Multiply ‘th’ with maximum intensity value 255 to get the threshold ‘th2’ [31].(5) Now external gradient images ‘EG1’, ‘EG2’, EG3’and ‘EG4’are obtained from image ‘GI’ with structuring elements S1, S2, S3, and S4.S1 is the structuring element with a diamond of radius 7,S2 is the structuring element with a disc of radius 7,S3 is the structuring element of a square with side 11 andS4 is the structuring element of the cross with arm ‘5’.(6) Thresholded external gradient images ‘TEG1’, ‘TEG2’, ‘TEG3’ and ‘TEG4’ are obtained from external gradient images ‘EG1’, ‘EG2’, EG3’ and ‘EG4’ with the help of threshold ‘th2’. All values greater than ‘th2’ are taken as ‘1’ and remaining as ‘0’ to get the thresholded external gradient images.(7) Thresholded external gradient images ‘TEG1’, ‘TEG2’, ‘TEG3’ and ‘TEG4’ are now intersected with binary image ‘BIM’ to get four intersected images.(8) Final binary images ‘B1’, ‘B2’, ‘B3’ and ‘B4’ are obtained by area opening four intersected images with value 10.Fig.2 shows various intermediate results of the process. Fig.2a is the original true color image from ‘Tirupathi’ area dataset. Fig.2b is the panchromatic image on which the algorithm has been applied, Fig.2c is the thresholded binary image ‘BIM’, Fig.2d is one of the four external gradient images generated ‘EG1’, Fig.2e is one of the four final intersected and area opened binary images generated ‘B1’and Fig.2f shows the final classified image.(a) (b)(c) (d)(e) (f)Fig.2. Classification results for proposed algorithm LCDFOSCA (a) True color image (b) Panchromatic image (c) Thresholded image with threshold 'th1'(d) External gradient image (e) Intersected and area opened binary image (f) Final Classified imageB.Extraction of texture featuresLinear contact distributions of any pixel can be estimated with the help of Equation (1) [24, 28, 32]. To estimate LCD of a pixel, a window ‘W’ of size n x n is considered surrounding the pixel under consideration. If ‘C’ is the set of pixels with value one in window ‘W’, then the LCD for a line segment wit h length ‘L’ and angle ‘ɵ’ is given by(,)(,)(()).()()1(()).(())cS LcS LA C A WH LA W A Cθθθεε=- (1)Where εB(A) denotes erosion of set ‘A’ by set ‘B’. Also, S(L, ɵ) is a structuring element, which consists of a line segment with length ‘L’ and angle ɵ. (C)c represents the complement of set “C”. ‘A’ is the area, here calculated as a number of pixels. In this paper, the lengthof the line segment has been considered as 3 and for every pixel, LCD ’s are estimated in all four principal directions. That is, the structuring elements considered are as follows.00001011112010000010S S ⎡⎤⎡⎤⎢⎥⎢⎥==⎢⎥⎢⎥⎢⎥⎢⎥⎣⎦⎣⎦00110030104010100001S S ⎡⎤⎡⎤⎢⎥⎢⎥==⎢⎥⎢⎥⎢⎥⎢⎥⎣⎦⎣⎦(2)From each binary image, for every pixel ‘p’, LCD arecalculated with the help of equation (1) and structuring elements presented in equation (2), to get four features for the pixel. As four binary images are available and from each binary image, a pixel gets 4 features, every pixel will get 16 features. From the grayscale image ‘GI’, four more features are calculated for every pixel, with the help of first order statistics mean, entropy, smoothness index, and energy [27]. They are calculated for the window ‘W’, surrounded by the pixel considered. Hence for every pixel, 20 features are calculated.Algorithm to calculate the feature vector for every pixel: Input: Binary images B1, B2, B3, B4 and grayscale image GI.Output: Feature vectors for all the pixels of the given image.Assume the size of the image to be r x s.(1) Consider the binary image B1.(2) Let structuring element is S1 as given in equation.(2). (3) For i = 1 to r (4) For j = 1 to s(5) Consider a window ‘W’ of size n x n surrounding the pixel p(i,j).(6) Calculate the feature f1 from window ‘W’ using equation (1).(7) Repeat step 6 with structuring elements S2, S3 and S4 as given in equation.(2) to get the features f2, f3 and f4 for pixel p(i,j).(8) Repeat from step 5 to step 7 with binary image B2, B3 and B4 to get features f5 to f16.(9) From grayscale image ‘GI’, consider the window ‘W 1’ of sixe n x n surrounding the pixel p(i,j).(10) Calculate other features f17 to f20 from window ‘W1’ like mean, entropy, smoothness index and energy. (11) end of for loop of j. (12) end for loop of i. (13)stop.C. Classification of the imageAll feature vectors calculated for every pixel are stored in a file and are clustered with the help of the K-means algorithm. All pixels of the first cluster are allotted one color, pixels of the second cluster are allotted another color and so on. Finally, all pixels are displayed thus forming a classified image.III. R ESULTS AND D ISCUSSIONSA. Experimental setupThe algorithm has been applied on various true color images of NRSC ‘Tirupathi ’ region [33] and on Google Earth images [34]. Small portions of the satellite image are cropped with the help of ‘QGIS’, an open source software and algorithm is applied on those cropped images. Cropped images of various sizes are considered. All algorithms are implemented in ‘MATLAB ’. The window size of 51 x 51 is considered to calculate the feature vectors of every pixel. All ground truth images are generated manually by visually interpreting the true color images. B. Datasets1. 2.5m Color satellite image of NRSC (NationalRemote Sensing Center) ‘Tirupathi and western side of Tirupathi’ region covering NARL, Chittoor, Andhra Pradesh, India. The site contains water bodies, urban, forests, etc. Latitude and longitudes of the left top corner and right bottom corners are (13.700, 79.110) and (13.350, 79.460) [33].2. 1m Color satellite image of NRSC ‘Tirupathi andwestern side of Tiru pathi’ region covering NARL, Chittoor, Andhra Pradesh, India. Latitude and longitudes of the left top corner and right bottom corners are (13.700, 79.110) and (13.600, 79.460) [33].3. Google Earth image of ‘Kollipara ’ region ofAndhra Pradesh state with latitude 16.2831970 and longitude 80.7756600. Eye alt at 755ft and acquired on 19-10-2017 [34]. C. Result analysisBoth subjective and quantitative analyses have been performed for evaluating the proposed algorithm. Both have proved the efficiency of the proposed algorithm. It has also been proved that LCDFOSCA was able to classify various land cover images without the help of any training data.Fig.3, Fig.4, Fig.5, Fig.6, Fig.7, Fig.8, and Fig.9 present some of the results for the algorithm LCDFOSCA. Fig.3a is a cropped image from ‘Tirupathi ’ area data set and Fig.3b is the grayscale image on which the algorithm is applied. Fig.3c is the ground truth and Fig.3d is the final segmented image with the help of LCDFOSCA algorithm. The dark blue region of the classified images represents the built-up area and cyan color region represents the vegetation.Fig.4a is a Google Earth image with the patterns of two types of crops. Fig.4c is the ground truth and Fig.4d is the classified image, which has rightly classified two types of crops. Fig.7a is also a ‘Tirupathi’ area true-color satellite image with 2mts resolution. LCDFOSCA has classified the original image into two clusters, forest region, and cultivated region. It is very near to the ground truth.(a) (b)(c) (d)Fig.3. Buildings and trees: Classification results for proposed algorithm LCDFOSCA (a) True color image (b) Panchromatic image (c) Groundtruth image (d) Classified imageIf Fig.4 and Fig.7 are observed, it could be noted that, if the image at a macro scale is given, LCDFOSCA algorithm was able to segment the image into various land use, like forest region and cultivated lands region. But, if an image with micro scale is given, for example:(a) (b)(c) (d)Fig.4. Two types of crops: Classification results for proposed algorithm LCDFOSCA (a) True color image (b) Panchromatic image (c) Groundtruth image (d) Classified image.(a) (b)(c) (d)Fig.5. Buildings, trees and crops: Classification results for proposed algorithm LCDFOSCA (a) True color image (b) Panchromatic image (c)Ground truth image (d) Classified image(a) (b)(c) (d)Fig.6. River and trees: Classification results for proposed algorithm LCDFOSCA (a) True color image (b) Panchromatic image (c) Groundtruth image (d) Classified image(a) (b)(c) (d)Fig.7. Cultivation and forest: Classification results for proposedalgorithm LCDFOSCA (a) True color image (b) Panchromatic image (c)Ground truth image (d) Classified image(a) (b)(c) (d)Fig.8. Water and buildings: Classification results for proposed algorithm LCDFOSCA (a) True color image (b) Panchromatic image (c) Groundtruth image (d) Classified image.(a) (b)(c) (d)Fig.9. Buildings and forest: Classification results for proposed algorithm LCDFOSCA (a) True color image (b) Panchromatic image (c) Groundtruth image (d) Classified image.(a) (b)(c) (d)Fig.10. Trees clip: Classification results for proposed algorithm LCDFOSCA (a) True color image (b) Panchromatic image (c) Groundtruth image (d) Classified image.Fig.4, the algorithm is able to classify various types of crops. Fig.5, Fig.6, Fig.8, and Fig.9 are all images from "Tirupathi" area 1mt resolution. If the final classified images are observed, we can easily find that they are very much nearer to their respective ground truths. LCDFOSCA was able to classify water, buildings, forest, cultivation lands, various types of crops, etc from the images. Fig.10 is a part clipped from Fig.9. When LCDFOSCA was applied on Fig.9, and was asked to classify into two groups, it classified the image into "buildings" class and "forest" class as seen in Fig.9d. But, when LCDFOSCA was applied on the Fig.10a, which is a part of Fig.9a, it classified the image as ‘trees’ and empty’ regions. Hence, LCDFOSCA is able to cluster the images into various parts unsupervised depending on the scale of the image. As a neighborhood window is being considered, the border effect could be observed sometimes. For example, Fig.6 shows this border effect. By observing ground truth and classified pictures Fig.6c, and Fig.6d respectively, the difference could be found easily near the banks of the river.Quantitative analyses of the results are performed using the Dice coefficient, Jaccard coefficient, Precision, Sensitivity, Specificity and segmentation accuracy [35, 36, and 37]. If Dice coefficient value is greater than 0.70, the segmentation is said to be good [38]. Table 1. shows the performance results of all the said measures. Dice coefficient of all segments of all the images is more than 0.85, and for most of the images, it is greater than 0.95, which shows that the results are good. Segmentation accuracy of all images is greater than 0.75 and Jaccard coefficient is greater than 0.90 for most of the images.IV. C ONCLUSIONIn this paper a new unsupervised algorithm, LCDFOSCA has been introduced to extract texture features for classification of a remote sensing image. LCDFOSCA is able to classify almost all land cover images which include water, forest, buildings, cultivation lands, various types of crops, etc. Both subjective and quantitative analyses are performed for the said algorithm. The subjective analysis shows that the algorithm performs well for classifying various objects of the remote sensing images and is also able to segment very similar and close patterns too. It also proved that the algorithm is able to classify a macro scale or a microscale image. Quantitative analysis shows that the dice coefficient values are greater than 0.85 for all images and for most of them it is greater than 0.95. Segmentation accuracy values range from 0.76 to 0.99 and Jaccard coefficient values are greater than 0.90 for most of the segments. In LCDFOSCA, the simple k-means algorithm is used to cluster the texture features of the image. More robust techniques like fuzzy c-means, rough sets, soft sets, etc could be tried in the future for further improvement of the clustering efficiency and thus finally the classification efficiency of the image. Border effects could be observed in the resultant images,sometimes as texture features are estimated in a neighborhood window of the pixel. Hence, the future scope of work could also include solving border effects. Anyhow, features extracted with LCDFOSCA are very good as they performed well even with a simple k-means clustering algorithm.Table 1. Performance EvaluationR EFERENCES[1]Minh-T Pham, S. Lefevre, E. Aptoula, Local feature-based attribute profiles for optical remote sensing image classification, IEEE Transactions on Geoscience and Remote Sensing 56 (2) (2017) 1199 - 1212.[2]J. Benediktsson, Pesaresi, Classification and featureextraction for remote sensing images from urban areas based on morphological transformations, IEEE Trans. on Geoscience and remote sensing 41 (9) (2003) 1942 - 1949.[3]O. Hagner and H. Reese, A method for calibratedmaximum likelihood classification of forest types, Remote sensing of environment 110 (2007) 438-444.[4]L. Xue, X. Yang, et al, Building extraction of SAR imagesusing morphological attribute profiles, Springer Communications signal processing, and systems 202 (2012) 13-21.[5]R. Li, F. Cao, Road network extraction from high-resolution remote sensing image using the homogeneous property and shape feature, Journal of Indian society of remote sensing 46 (1) (2018) 51-58.[6]G. R. Watmough, C. A. Palm, Clare Sullivan, Anoperational framework for object-based land use classification of heterogeneous rural landscapes, International Journal of Applied Earth Observation and Geoinformation 54 (4) (2017) 134-144. doi: org/10.1016/j.jag.2016.09.012.[7] F. Chen, R. Ren, T. V. de Voorde, Fast automatic airportdetection in remote sensing images using convolutional neural networks, Remote Sens 10 (3) (2018) 443.[8]Y.M. Luo, Y. Ouyang, R.C. Zhang, H.M. Feng, Multi-feature joint sparse model for the classification of mangrove remote sensing images, International Journal of Geo-Information 6 (6) (2017) 177.[9]V. Dev, Y. Zang, M.Zhong, A review on imagesegmentation techniques with remote sensing perspective, ISPRS TC VII Symposium (2010) 31-42. [10]L. Ghouti, A. Bouridane, M. Ibrahim, S. Boussakta,Digital image watermarking using balanced multiwavelets, IEEE Trans on Signal Processing 54 (4) (2006) 1519-1536.[11]Y. Sun, G. jin He, Segmentation of high-resolution remotesensing image based on a marker-based watershed algorithm, IEEE conf procs at Shandong, China.doi:10.1109/FSKD.2008.249.[12]P.Mohanaiyah, P.satyanarayana, L.GuruKumar, Imagetexture feature extraction using glcm approach, International journal of scientific and research publications 3 (5) (2013) 1-5.[13]M. D. Mura, J. A. Benediktsson, et al., Morphologicalattribute profiles for the analysis of very high resolution images, IEEE trans on geoscience and remote sensing 48(10) (2010) 3747-3762.[14] B. Song, J. Li, et al, Remotely sensed image classificationusing sparse representations of morphological attribute profiles, IEEE trans on geoscience and remote sensing 52(8) (2014) 5123-5136.[15] B. Chaudhuri, B. Demir, S. Chaudhuri, L. Bruzzone,Multi-label remote sensing image retrieval using a semi-supervised graph-theoretic method, IEEE Transactions on Geoscience and Remote Sensing 56 (2) (2017) 1144-1158.doi: 10.1109/TGRS.2017.2760909.[16]M. Schroder, A. Dimai, Texture information in remotesensing images: A case study (1998).[17]Y. Deng, B. Manjunath, Unsupervised segmentation ofcolor-texture regions in images and video, IEEE Transactions on Pattern Analysis and Machine Intelligence 23 (2001) 800-810.[18]R. Harlick, K. Shanmugam, I. Dinstein, Texture featuresfor image classi_cation, IEEE trans on systems, Man. and Cybernetics SMC-3 (1973) 610-621.[19]J. Serra, Image Analysis and Mathematical Morphology,Academic Press, New York, 1982.[20] J. Serra, P. Soille, Mathematical morphology and itsapplications to image processing, Springer science, and Bussiness media., 1984.[21] N. Robbe, T. Hengstermann, Remote sensing of marineoil spills from airborne platforms using multisensory systems, WIT Trans. on Ecology and the Environment 95 (2006) 9. doi:10.2495-WP060351.[22] S. Klemenjak, B. Waske, S. Valero, J. Chanussot,Automatic detection of rivers in high resolution SAR data, IEEE Journal of selected topics in applied earth observations and remote sensing 5 (2) (2012) 1-9.[23] P. Doraiswamy, et al, Crop classification in u.s. corn beltusing modis imagery, IEEE Proceedings of Geoscience and Remote Sensing Symp 45 (4) (2007) 1074 - 1083. [24] D. Hug, G. Last, W. weil, A survey on contactdistributions, LNP 600 (2002) 317-357.[25] M. B. Hansen, R. D. Gill, A. Baddeley, Kaplan-Meiertype estimators for linear contact distributions. URL [26] P. Soille, M. Pesaresi, Advances in mathematicalmorphology applied to geoscience and remote sensing, IEEE Trans. on Geoscience and Remote sensing 40 (9) (2002) 2042-2055.[27] G. N. Srinivasan, G. Shobha, Statistical texture analysis,Proceedings of world academy of science, engineering and technology 36 (2008) 1264-1269.[28] I. Epifanio, P. Soille, Morphological texture features forunsupervised and supervised segmentation of natural landscapes, IEEE trans on Geoscience and Remote sensing 45 (4) (2007) 1074 - 1083.[29] N. OTSU, A threshold selection method from the graylevel histogram, IEEE Trans. on Systems, Man, and Cybernetics 9 (1) (1979) 62-66.[30] L. Jianzhuang, e. a.Wenqing, L., Automatic thresholdingof gray level pictures using two-dimensional Otsu method, IEEE proc on Circuits and systems doi:10.1109 CICCAS.1991.184351. [31] A.V.Kavitha, A.Srikrishna, Ch.Satyanarayana,Unsupervised linear contact distributions segmentation algorithm for land cover high resolution panchromatic images, Multimedia tools and applications (2018) 1-19 doi: https:///10.1007/s11042-018-6693-y.[32] I. Epifanio, G. Ayala, A random set view of textureclassification, IEEE trans of image processing 11 (8) (2002) 859-867.[33] NRSC satellite images, https://.in (2016). [34] Google earth, https:///download-earth.html (2017).[35] R. O. Duda, E. H. Peter, Pattern classification and sceneanalysis, 3rd Edition, Wiley, New York, 1973.[36] J. Fleiss, The measurement of interrater agreement. In:Statistical methods for rates and proportions, 2nd Edition, John Wiley and Sons, New York, 1981.[37] L. Dice, Measures of the amount of ecologic associationbetween species, Ecology 26 (1945) 297-302. doi: 10.2307/1932409.[38] A. P. Zijdenbos, B. M. Dawant, R. Margolin, A. C.Palmer, Morphometric analysis of white matter lesions in MR images: method and validation, IEEE Trans Med Imaging 13 (1994) 716-724.Au thors’ ProfilesSmt. A.V. Kavitha is a research scholar at Jawaharlal Nehru Technological University, Kakinada and is working as an Associate professor and Head of the Department of Computer science at Sri. A.B.R. Government degree college, Repalle. She is having 22 years of teaching experience and six years of research experience. She haspublished 12 papers in various national and international journals and conferences. Her research interests are in Image processing, Pattern recognition, Remote sensing, and computer vision.Dr. A. Srikrishna is professor and head of the Department of Information and Technology at RVR & JC College of engineering, Chowdavaram, Guntur. She has 26 years of teaching experience. She has published more than 35 papers in international journals and conferences. She has received major and minor researchproject grants from UGC and AICTE. She has authored a book entitled “Parametric Based Morphological Transformation for Contrast Enhancement. Her research interests are in Image processing, Computer vision, Information security, and algorithms.Dr. Ch. Satyanarayana is a professor in Computer science and Engineering department, and director for Academic and Planning at Jawaharlal Nehru Technological University, Kakinada. He has guided 15 students for Ph.D. in Computer science and engineering. He is a senior member in IEEE and has published more than 150 papers ininternational journals and conferences. His research interests are in Image processing, Speech recognition and Pattern recognition and have eighteen years of experience.How to cite this paper: A.V. Kavitha, A. Srikrishna, Ch. Satyanarayana, " An Efficient Texture Feature Extraction Algorithm for High Resolution Land Cover Remote Sensing Image Classification", International Journal of Image, Graphics and Signal Processing(IJIGSP), Vol.10, No.12, pp. 21-28, 2018.DOI: 10.5815/ijigsp.2018.12.03。

基于类别可分离性的遥感图象特征提取方法

基于类别可分离性的遥感图象特征提取方法

基于类别可分离性的遥感图象特征提取方法
谭枫;曾小明
【期刊名称】《自动化学报》
【年(卷),期】1990(016)002
【摘要】本文从类别可分离性出发推导出一种用于遥感图象特征提取的线性变换方法。

该方法并不着眼于变换子空间的整体信息保持,而在于使当前待分类别具有最好的分离度。

文中给出了变换核的理论推导及计算方法。

试验结果表明该方法具有良好处理效果。

【总页数】5页(P174-178)
【作者】谭枫;曾小明
【作者单位】不详;不详
【正文语种】中文
【中图分类】TP751
【相关文献】
1.基于类别相关的新文本特征提取方法 [J], 林少波;杨丹;徐玲
2.基于演化Agent的图象特征提取方法 [J], 印鉴
3.基于OLI遥感数据的遥感异常信息提取方法 [J], 张斌;郑燕;李清云;常勤慧;刘新星;刘冰;李光辉
4.融合面向对象与缨帽变换的湿地覆被类别遥感提取方法 [J], 罗开盛;陶福禄
5.基于LCCS的大尺度土地覆被遥感产品类别相对一致性研究 [J], 张晓楠;宋宏利
因版权原因,仅展示原文概要,查看原文内容请购买。

遥感图像纹理信息提取方法综述

遥感图像纹理信息提取方法综述

Vol.19No.3May,2007云南地理环境研究YUNNANGEOGRAPHICENVIRONMENTRESEARCH第19卷第3期2007年5月遥感图像纹理信息提取方法综述1前言遥感图像分析和解译的基本依据是灰度(波谱)和纹理(空间)两方面的信息[1],目前用得最多的是图像的波谱信息。

随着遥感图像处理的深入,仅仅使用波谱信息已经不能满足遥感应用的需要[2],而作为遥感图像重要信息之一的空间信息———纹理信息的提取和分析,在遥感图像分类识别中呈现出日益重要的作用。

特别是随着遥感图像空间分辨率的提高,纹理特征在遥感图像处理中的作用越来越重要[3]。

追溯图像纹理信息提取的方法,探究遥感图像纹理信息提取的方法并展望其发展趋势,对于推动和深化遥感图像分类识别中的定量工作具有重要意义。

遥感图像记录的是地球表面辐射的电磁波信息,地物的波谱特征以强弱不等的亮度值反映于图像上。

地物的空间特征一纹理结构,则是间接地由图像亮度值之间的关系表现的,它反映出地表辐射随时间、空间的分布状况。

图像纹理是反映数字图像光谱亮度值空间变化的一种特征,一般理解为图像灰度在空间上的变化和重复,或图像中反复出现的局部模式(纹理单元)和它们的排列规则[4]。

由于地球表面的组成很复杂,其状态随时、空的变化而变迁,遥感图像的纹理结构是非规则化的、随机的。

因此,遥感图像的纹理可定义为:“图像像元亮度值空间变化率的一种量度”。

遥感图像分类是遥感应用的基础,其目的是为了满足人们从海量遥感数据中快速识别与获取不同专题信息的需要。

在遥感图像的分类过程中,为客观而快速地反映地物的真实特征,采用地物光谱特征进行计算机自动分类是主要的方法,但单纯利用光谱信息进行分类,结果并不理想。

一般情况下,把波谱信息和纹理信息结合起来进行图像分类可以取得更好的效果[5]。

早在1980年,Switzer[6]将邻域像元的平均值输入到最大似然法中,将光谱维和空间纹理维的信息一起用来进行分类,是计算机图像分类运用空间信息的开始,这种方法不仅利用了反映地物差异的波谱信息,而且还用到了刻划地物特征的纹理信息,从而提高了分类的效果。

基于Contourlet变换的纹理图像特征提取方法

基于Contourlet变换的纹理图像特征提取方法

基于Contourlet变换的纹理图像特征提取方法
刘清鸣;洪春勇
【期刊名称】《现代计算机(专业版)》
【年(卷),期】2008(000)011
【摘要】对Contourlet变换构造以及Contourlet变换进行了描述,对其子带系数采用广义高斯模型进行建模.同时为进一步降低模型的计算复杂度,对模型进行曲线拟合.用两个变量描述每一系数模型概率.从而提取图像特征.最后,通过在Brodatz 纹理数据库中图像搜索验证特征提取的有效性.
【总页数】3页(P53-55)
【作者】刘清鸣;洪春勇
【作者单位】南昌大学计算机中心,南昌,330031;南昌大学计算机中心,南
昌,330031
【正文语种】中文
【中图分类】TP3
【相关文献】
1.基于Contourlet变换和PCNN的CT图像椎体解剖轮廓特征提取方法的研究[J], 李峤;李海云
2.基于轮廓波的纹理图像特征提取方法 [J], 赵一凡;夏良正;潘泓
3.基于改进Contourlet变换的纹理图像混合检索方法 [J], 曲怀敬;齐志强;吴延荣
4.基于Contourlet变换的纹理图像检索 [J], 李丽君
5.基于非下采样contourlet变换的纹理图像检索算法 [J], 张瑜慧;胡学龙
因版权原因,仅展示原文概要,查看原文内容请购买。

基于NSST和MCM纹理特征提取算法

基于NSST和MCM纹理特征提取算法

基于NSST和MCM纹理特征提取算法
魏远远;殷明
【期刊名称】《大学数学》
【年(卷),期】2016(032)001
【摘要】纹理特征提取作为图像处理的重要环节,对图像的后续处理有着至关重要的影响.文中在多分辨共生矩阵算法的基础上,针对标准Brodatz纹理图像检索,通过非下采样剪切波变换的多分辨共生矩阵和混合高斯模型相结合,提出了一种纹理特征提取算法.文中首先对Brodatz纹理图像进行非下采样剪切波变换得到子带系数,通过对细节子带直方图分析,引入了拟合效果较好的混合高斯模型.然后利用优化的非均匀量化策略,提取多分辨共生矩阵纹理特征F2和F10.最后将提取的纹理特征与统计特征级联融合并结合具有权重系数的相似性度量公式,用于最终纹理图像检索.仿真实验表明:与传统多分辨共生矩阵的方法相比,文中所提算法的平均检索率分别提高了2.01%和8.87%.
【总页数】11页(P15-25)
【作者】魏远远;殷明
【作者单位】合肥工业大学数学学院,合肥230009;合肥工业大学数学学院,合肥230009
【正文语种】中文
【中图分类】TP391
【相关文献】
1.基于PAAG的纹理特征提取算法的并行实现 [J], 李涛;李雪丹
2.基于形态学与不完全树形小波分解的图像纹理特征提取算法 [J], 张雯;葛玉荣
3.基于有效数据网格的Gabor小波纹理特征提取算法 [J], 郭依正;焦蓬蓬
4.基于FPGA的遥感图像纹理特征提取算法实现技术 [J], 段咏龙;胡坚;贺文静;丁海燕
5.基于PAAG的纹理特征提取算法的并行实现 [J], 李涛;李雪丹;
因版权原因,仅展示原文概要,查看原文内容请购买。

运用SI-Harris算子提取遥感图像点特征

运用SI-Harris算子提取遥感图像点特征

运用SI-Harris算子提取遥感图像点特征孟伟灿;朱述龙;曹闻;杨海鹏;刘岩【期刊名称】《测绘科学技术学报》【年(卷),期】2014(000)004【摘要】Scale Invariant Harris SI-Harris was applied to detecting interest points on remotely-sensed images and its rigorous formulas were derived. Then the focus of the paper was put on the experimental comparisons between the results obtained by Harris and SI-Harris on different resolution remote sensing images. The repeatability rate was used to quantitatively evaluate the experiment results. The experiments indicate that the repeatability rate of SI-Harris was obvious higher than Harris s. SI-Harris can be used to detect interest points on different resolution remote sensing images and then can serve the matching of different resolution images.%推导了SI-Harris算子(尺度不变Harris算子)的理论公式,并将其应用于遥感图像的点特征提取。

重点对Harris算子与SI-Harris算子在不同空间分辨率遥感图像上的点特征提取进行实验比较,利用“重复率”指标对实验结果进行定量评价。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

第30卷第12期2005年12月武汉大学学报・信息科学版G eomatics and Information Science of Wuhan University Vol.30No.12Dec.2005收稿日期:2005210225。

项目来源:国家863计划资助项目(2003AA131152)。

文章编号:167128860(2005)1221080204文献标志码:A一种大尺寸遥感图像基于内容检索的纹理特征提取算法曾志明1,2 李 峰1,2 傅 琨1 丁赤飚1(1 中国科学院电子学研究所,北京市北四环西路19号,100080)(2 中国科学院研究生院,北京市玉泉路甲19号,100039)摘 要:针对50万像素以上的大尺寸遥感图像基于内容检索的需要,通过将大尺寸图像按照区域类别分块,用灰度共生矩阵法对各子块提取出纹理特征,并利用类似Hu 的不变矩的方法对各子块纹理信息进行统计,从而提取出与大尺寸图像中各纹理的空间位置相关的一组纹理特征值。

该方法对传统的共生矩阵法进行了改进,使其适用于大尺寸图像多区域类别的纹理特征提取,可用于大尺寸遥感图像的基于内容的检索和初分类研究。

关键词:图像;纹理;共生矩阵;不变矩;基于内容的检索中图法分类号:TP751 提取图像纹理的算法有很多,灰度共生矩阵法就是其中一种十分常用的方法。

但与大多数纹理特征提取方法相同,它所提取的是整幅图像的纹理特征,在小尺寸的切片图像上能取得较好的效果。

但对于50万像素以上的大尺寸图像,无法关系,因此,它只适合于具有单一纹理特征的图像。

而现代遥感影像具有单景图像覆盖面积大、背景复杂、不同空间地域位置的不同纹理特征区别明显等特点,因此,必须对这些方法进行改进,研究与图像中多类纹理及其空间位置信息相关的特征提取算法,自动半自动地对单景大尺寸遥感影像提取多类纹理特征。

1 纹理特征提取方法1)基于灰度共生矩阵的纹理提取法。

灰度共生矩阵法[1]是目前较常见和广泛应用的一种提取方法。

多年的研究表明,它对于遥感影像的纹理特征提取有较好的效果。

在基于遥感图像纹理的检索中,主要使用了灰度共生矩阵中的二阶角矩、逆差矩、熵3种统计特征[2]。

2)改进的纹理特征提取方法。

灰度共生矩阵法所提取的特征是整幅图像的纹理特征,而通常的图像检索系统需检索、分类的图片往往不具有整幅图像同一纹理的性质,而是图像的各区域均有不同的纹理,由这些不同的纹理共同组成一幅图像。

这样,用来区别不同纹理效果较好的灰度共生矩阵法在实际的大尺寸遥感图像检索中并不适用。

为此,需要对这种灰度共生矩阵法进行改进,使其能体现出图像中不同纹理的空间信息。

为了使提取的纹理信息能与纹理的空间位置有关,先将大图像划分为一些正方形子块图像。

设图像J 的大小为M ×N ,子块的大小为H ×H ,则共分得子块数为M -1H+1,“[x ]”表示取x 的整数部分。

设M ′=M -1H+1,N ′=M -1H+1,则图像子块数为M ′×N ′。

对这M ′×N ′个子块分别采用灰度共生矩阵法提取各子块的二阶矩、逆差矩和熵这三个纹理特征。

整幅图像共可得到3×M ′×N ′个子图像块纹理特征值,将它们分别记为:①二阶角矩矩阵A 1[M ′,N ′];②逆差矩矩阵A 2[M ′,N ′];③熵矩阵A 3[M ′,N ′]。

将如此多的特征值直接用于图像检索显然是不符合实际要求的。

为此,本文采用了类似Hu 的不变矩的统计方法来对这些纹理特征进行与纹理的空间位置相关的统计压缩。

 第30卷第12期曾志明等:一种大尺寸遥感图像基于内容检索的纹理特征提取算法Hu 的7个不变矩[3]是用来提取图像空间灰度特征的方法。

在Hu 的不变矩公式中,统计的图像特征是数字图像各点的像素灰度值。

同样,完全可以使用这7个矩来统计大尺寸图像的子块纹理特征值。

具体方法是将获得的子块图像的二维纹理特征矩阵A 1[M ′,N ′],A 2[M ′,N ′]和A 3[M ′,N ′]视为数字图像,将各子块图像的共生矩阵特征值A [m ,n ]视为该图像的像素灰度值,通过使用Hu 的7个不变矩的方法,对于图像的每一种纹理特征,套用不变矩公式,就能得到7个该纹理特征的不变矩。

由于<7是用于识别镜面图像的,在此不用,则可得到3×6=18个与大图像局部纹理及其空间位置相关的图像纹理特征。

由于加入了图像纹理的空间位置信息来对各子块纹理信息进行了加权,从理论上说应能提高检索的查准率。

由于Hu 的不变矩所得的矩本身就具有旋转不变性。

同时,共生矩阵法是通过提取图像的8个方向上的共生矩阵叠加而得,如果图像发生旋转,那么这18个纹理特征的旋转不变性应与普通的共生矩阵法所提取的纹理特征相同。

但是,图像划分子块应尽量保证所有子块大小的同一性,如果边缘子块大小与图像内部子块大小不同,则在图像旋转后,所划子块的区域就可能发生变化,从而导致提取的子块纹理特征有所差异,造成特征的旋转不变性发生恶化。

如图1所示,图像旋转了180°后,由于子块划分方法的不合理,造成各子块内的图像有较大的差异,从而造成提取的子块纹理特征的差异。

图1 图像子块划分误差Fig.1 Error of Plotting Image另外,当图像的亮度发生变化时,根据参考文献[1]所述提取的灰度共生矩阵的二阶角矩、逆差矩和熵的公式,三种统计量均只与图像中各像元的灰度差有关,而与各像元本身的灰度值无关。

所以,该纹理特征不敏感于图像的亮度变化。

2 试验及分析2.1 试验模型试验在笔者设计的一个小型遥感影像检索数据库平台上进行。

试验中采用了普通共生矩阵算法和本文所述的改进的纹理提取算法来进行对比。

计算特征向量间距离D ,即图像间的不相似程度的公式如下:D =∑i ∈Lw i ×A i -A ′i|A i |+|A ′i |2(1)式中,w i 是各特征维的权重系数;A i -A ′i |A i |+|A ′i |2是两幅图像的某维特征向量的规一化距离,因此,D 是两幅图像的各维特征的规一化加权距离和,即两特征向量间的距离。

2.2 试验方法 试验中采用了如图2所示的4幅1024像素×1024像素的大尺寸遥感图片,它们在各区域上的纹理都是不同的。

图2(a )左下角为体育场,右上角为农田,其他为民居;图2(b )图像的左上角为树林,其他部分是城市;图2(c )图像的大部分均为树林,其间点缀着部分建筑物;图2(d )图像大部分均为农田,右上部有部分农居。

每张图片分别进行少量旋转、灰度变化后得到5张同类图片,分别记做a 1、a 2、a 3,…,共20张图片样本分别基于共生矩阵法和本文所提的改进方法进行纹理特征的图像检索试验。

各图像样本的大小均为1024像素×1024像素,提取灰度共生矩阵的灰度级为16。

图2 样本图像Fig.2 Image Sample采用灰度共生矩阵法时,提取二阶角矩、逆差矩和熵这三个特征,分别记为A 1、A 2、A 3。

采用本文所述的改进的纹理提取法时,取图像子块大小为32像素×32像素,使用第二节所述方法,使用Hu 矩[3]中的<1、<2、<3这3个不变矩统计子块纹理特征,共得到9个纹理特征,记为A 11、A 12、A 13、A 21、A 22、A 23、A 31、A 32、A 33。

2.3 试验结果用4类图片中的各一张图片做模板,分别用两种算法进行图像检索试验,取距离最小的前5幅图像为查询结果。

查询数据库,记录图像间的距离于表1、表2中,表中的数字代表相应图像样本与检索的图像模板间的距离。

采用公式1N∑i ∈LD i 来计算同类各样本、不同1801武汉大学学报・信息科学版2005年12月类各样本与检索模板的平均距离m 和m ′;通过计算m ′/m 得到不同类图像与同类图像的距离比;根据距离数据,取距离最小的前5幅图像为检索结果,通过公式查准率=查询结果中与查询模板同类的样本图像数5×100%(2)计算每次查询的查准率,并对4次查询的查准率进行算术平均,得到4次查询的平均查准率。

由表1可算出,同类各图像样本平均距离m =0.133,不同类的各图像样本的平均距离m ′=0.516,不同类图像与同类图像的距离比m ′/m =3.87,4次检索平均图像查准率=70%。

从表2算得,同类各图标样本平均距离m =0.183,不同类的各图像样本的平均距离m ′=0.985,不同类图像与同类图像的距离比m ′/m =5.38,4次检索平均图像查准率为90%。

表1 灰度共生矩阵法获得的图像特征距离值Tab.1 Image Character Distance Extracted by Co 2occurrence Matrices模板图像样本a 1a 2a 3a 4a 5b 1b 2b 3b 4b 5a 100.260.270.120.0490.630.780.310.630.75b 10.650.50.570.390.6300.20.320.00180.34c 10.260.270.340.280.310.510.660.260.510.73d 10.360.380.620.360.410.690.720.580.220.54c 1c 2c 3c 4c 5d 1d 2d 3d 4d 5a 10.251.010.480.40.460.460.350.470.260.58b 10.510.520.230.510.380.620.310.80.620.38c 100.420.210.040.110.620.710.520.580.74d 10.41 1.10.690.610.5400.170.10.030.09表2 改进的特征提取方法获得的图像特征距离值Tab.1 Image Character Distance Extracted by Above Method模板图像样本a 1a 2a 3a 4a 5b 1b 2b 3b 4b 5a 100.240.320.110.120.850.820.920.870.86b 10.820.760.780.871.1600.20.350.490.23c 11.010.820.80.981.140.70.620.430.680.6d 111.31.031.031.231.261.291.231.311.35c 1c 2c 3c 4c 5d 1d 2d 3d 4d 5a 111.11.021.151.011.031.051.161.030.96b 10.480.880.70.710.731.230.750.981.180.75c 100.280.490.120.081.30.810.941.270.67d 11.311.351.371.241.1800.420.340.20.182.4 结果分析从测试结果数据中可以看出,由于改进的灰度特征提取方法中加入了纹理的空间位置信息,从而拉大了各样本图像间的距离。

相关文档
最新文档