基于易康土地覆被分类
利用eCognition半自动_半人工解译

利用eCognition进行半自动/半人工解译——以道县为例分类系统试验区分类系统如表1所示:表1 道县试验区土地覆盖遥感分类系统eCongnition对中文的识别效果不是很好,因此为了避免因中文名称带来的麻烦以及便于识别,本次分类一律采用拼音类别名称。
0建立工程(1)新建工程选择菜单栏File→NewProject,或点击工具栏的按钮,新建一个工程文件。
图0-1 新建工程(2)加载影像选择需要输入的影像,影像存放的路径不能有中文,双击波段可以更改波段的名称,必须勾选“Use geocoding”(否则,输出的分类结果无投影信息,数据无法拼接)。
利用地理坐标双击可更改波段的名称可插入专题图,参与分类图0-2 加载影像在建立工程(Create Project)的窗口中,如图0-3所示,点击No Data按钮,打开Assign No Data Value窗口,勾选Usesingle value for all layers(union),令背景不参与运算。
图0-3设置背景不参与运算(3)进行波段组合叠加显示影像Edit Image Layer Mixing图0-4设置波段组合显示点击工具栏上的Edit Image Layer Mixing按钮,这里进行标准假彩色合成,然后选择下方的线性拉伸(Linear2%),操作者可以根据自己的个人视觉感受去调试选择不同的显示方式。
1分割分割是面向对象分类软件ecognition里面进行影像分类处理的第一步工作,其目的是按照一定的规则将栅格图像划分为若干对象,划分后的对象即为处理的最小对象。
如果不进行分割,后面的分类及自定义特征值等均不能进行。
本次作业分割的具体步骤为:1.1多尺度分割多尺度分割(multiresolutionsegamentation)界面如下图所示:图1-1 多尺度分割界面图1-1中编号为1、2、3的红框含义是:选择“multiresolution segmentation”算法为分割后层命名设置分割尺度值。
生态十年环境感监测土地覆盖分类系统v2013

生态十年环境感监测土地覆盖分类系统(2013年版)土地覆被分类系统分为二级:一级为IPCC土地覆被类型,二级基于碳收支的LCCS土地覆被类型。
土地覆被图例系统中,一级为6类,对应IPCC的6类,二级类型由FAO LCCS的方法进行定义,共38类,具有统一的数据代码,便于政府间、国际组织的数据交换与对比分析,反映通用的土地覆被特征(表1)。
注:C:覆盖度\郁闭度(%);F:针阔比率(%);H:植被高度(米);T:水一年覆盖时间(月);K:湿润指数1、二级类型定义1:林地:木本为主的植物群落。
其郁闭度不低于20%,高度在0.3米以上。
包括自然、半自然植被,及集约化经营和管理的人工木本植被。
101:常绿阔叶林:双子叶、被子植被的乔木林,叶型扁平、较宽;一年没有落叶或少量落叶时期的物候特征。
乔木林中阔叶占乔木比例大于75%,常绿阔叶林占阔叶林50%以上,高度在3米以上。
半自然林属于此类,该植被可以恢复到与达到其非干扰状态的物种组成、环境和生态过程无法辨别的程度,如绿化造林、用材林、城外的行道树等。
102:落叶阔叶林:双子叶、被子植被的乔木林,叶型扁平、较宽;一年中因气候不适应、有明显落叶时期的物候特征。
乔木林中阔叶占乔木比例大于75%,落叶阔叶林占阔叶林50%以上,高度在3米以上,包括半自然林。
103:常绿针叶林:裸子植物的乔木林,具有典型的针状叶;一年没有落叶或少量落叶时期的物候特征。
乔木林中针叶占乔木比例大于75%,常绿针叶林占针叶林50%以上,高度在3米以上,包括半自然林。
104:落叶针叶林:裸子植物的乔木林,具有典型的针状叶;一年中因气候不适应、有明显落叶时期的物候特征。
乔木林中针叶占乔木比例大于75%,落叶针叶林占针叶林50%以上,高度在3米以上,包括半自然林。
105:针阔混交林:针叶林与阔叶林各自的比例分别在25%-75%之间,高度在3米以上,包括半自然林。
106:常绿阔叶灌木林:叶面保持绿色的被子灌木群落。
基于ecognition的地表覆盖自动提取

满足要求
否
是 优化处理
检查及人工编辑
满足要求 否 是
人工解译不易提取的要素
内业分类与识别成果
基于eCognition交互式解译流程图
24
建立规则集
封装成快速模式
规则集与动作模块的关联
2021/3/11
25
基于eCognition内业分类与识别方法介绍
监督分类
如基础地理信息数据现势性不好或内容不详细,可在影像分割的基 础上,选择样本进行监督分类,使各地类的一级分类基本都能提取 出来,二三级分类需要人机交互解译。
2021/3/11
23
2021/3/11
融合影像
全色影像 Or
首次多尺度分割
多光谱影像
参与分割 矢量专题数据
封装好 的分类 规则1
专题数据参与分类 依据特征参数分类
道路面状数据
房屋面状数据
水体线、面状 数据
已满足要求的地类
检查及人工编辑
满足要求 是
合并地类
否 需要继续分类的地类
二次多尺度分割
基于SVM的分类
➢ 高分辨率影像处理 ➢ DEM数据精细化处理 ➢ 地理国情普查信息采集
• 地表覆盖分类 • 地理要素信息提取
图例
草地 耕地 林地 道路 裸地 水体 建筑物
2021/3/11
19
针对的是高分辨率影像
区域地形地貌特点不同,造 成解译知识的无法重复利用 如西南地区局 部 地 区 地 表 破 碎
2021/3/11
2021/3/11
9
四叉树分割:和棋盘分割比较像似,但创建的正方形大小是在不同的尺寸。 同质的区域生成典型的较大的正方形,而异质的区域则生成较小的正方形,
基于eCognition和Google earth影像的土地利用分类

209收稿日期:2018-07-09作者简介:王欢欢(1991—),女,湖北黄冈人,硕士,研究方向:水利信息化。
1 引言易康(eCognition)系列软件作为面向对象影像分析技术的专业软件,与传统的遥感软件ERDAS、ENVI、PCI等有明显的不同,虽然ERDAS和ENVI里也有相应的面向对象分类模块,但其对高分辨率影像的信息提取效果,及高分辨率影像涉及的各个行业的应用范围无法与易康软件相比。
易康软件的面向对象方法包括影像分割和分类提取两部分[1]。
“分割”是面向对象分类的基本前提,是指依据某种同质性或者异质性标准,将影像划分成很多小块对象的过程,常用的面向对象的分割方法有多尺度分割和光谱差异分割。
江华使用多尺度分割进行福州琅岐岛土地利用分类[1];陈韬亦等人结合使用多尺度分割与光谱差异分割进行光学遥感图像分类,以检测舰船目标[2]。
本文考虑的是多尺度分割与光谱差异分割在土地利用分类上的结合应用。
而“分类”是指依据小块对象的形状、颜色、纹理、空间关系、隶属关系等属性来识别所属类别的过程,常用的面向对象的分类方法有隶属度函数分类法和监督分类法。
分割是分类的基础,分割效果的好坏直接关系到分类的精度。
本文以重庆市九龙坡区部分城区为例,利用面向对象技术,对没有近红外的GE遥感影像进行土地利用分类研究,得到重庆九龙坡区某片城市地区的土地利用图。
2 研究区域与数据源选择重庆市九龙坡区部分城区,经纬度范围为106.53°~106.55°E和29.47°~29.49°N作为研究区。
通过91卫图软件下载,选取该研究区2014年的G E 影像作为实验数据,其影像大小是9472*7168像素,空间分辨率为1m,共有三个波段层:红、绿、蓝3个波段。
在本实验的研究区域内,地物种类多样,主要的地物类型包括水体、建筑物、道路、植被、裸地。
研究区域如图1所示。
3 研究方法3.1 技术路线根据eCognition软件进行容易获取的高分辨率影像分类的技术路线如下:输入待分类的影像,整个实验的第一步是分割,依次利用“多尺度分割法”、“光谱差异分割法”对影像进行最适合尺度的分割,将影像划分为多个对象,然后根据各地物的识别特征信息(光谱、几何、纹理、拓扑等)进行隶属度函数分类并结合最邻近分类的监督基于eCognition 和Google earth 影像的土地利用分类——以重庆市九龙坡区部分城区为例王欢欢(广东省水利水电科学研究院,广东省水动力学应用研究重点实验室,广东广州 510635)摘要:传统的土地利用分类和信息提取主要是基于中低分辨率遥感图像的,本文研究基于易于获得的高分辨率的Google earth(GE)影像,利用面向对象的易康(eCognition)软件进行土地利用分类。
基于易康土地覆被分类

测
• 传统目视判读或是基于像素(pixel based)分类方式获得的 结果与地理数据库难以整合,且信息提取的精度和效率不能 兼顾。
常用特征参数
四、基本操作与设置演示
如图所示,特征窗口常用的对象特征
常用特征参数
四、基本操作与设置演示
光谱特征
• 亮度 • 最大均值 • 最小均值 • 最大均值差 • 均值 • 标准差 • 最大像素值 • 最小像素值
– 对象比率 – Mean Diff. to neighbors – Mean Diff. to neighbors(abs) – Mean Diff. to brighter neighbors() – Mean Diff. to darker neighbors
基本分类方法
四、基本操作与设置演示
• 基于规则的分类方法: (1)最邻近分类器:
在声明每个类的样本对象后,每个影像对象都赋为特征空间中最邻近样本所代表的类中。 (2)隶属度函数分类器:
可以精确定义对象属于某一类的标准 ,是基于一个特征的。如果一个类仅通过一个特征或者只 用少数的特征就能和其它类区分,则可使用隶属度函数 。 • 基于分类器分类方法: (1)决策树算法 (2)随机森林算法 (3)贝叶斯算法 (4)支持向量机算法 (5)K最近邻算法
四、基本操作与设置演示
自动命名的规则
上述例子命名解释: 将影像采用棋盘分割方法,按照每个对象100*100像 素进行分割,其中一个专题层参与运算。
算法(Algorithm):
从下拉菜单中选择您想要进行的算法,依据所选 择的算法,在编辑对话框右侧部分的规则集合设置的 算法参数也将发生变化并显示。
基于eCognition的土地利用遥感影像自动提取研究

第48卷第12期2 0 1 7年6月人民长江Yangtze RiverVol.48,No. 12June,2017文章编号:1001 -4179(2017) 12 -0075 -04基于eCognition的土地利用遥感影像自动提取研究周勇兵,曹珥(武汉大学遥感信息工程学院,湖北武汉430079)摘要:遥感监测是开展区域水土流失动态监测的重要手段。
对同一地区不同时期遥感影像进行影像分类,对比分析两期分类结果可以实现对土地利用等水土流失影响因子的动态监测。
传统方法通常采用人工目视勾绘法获得土地利用分类结果,耗时耗力且效率不高。
以同一地区不同时期的遥感影像为对象,基于eCognition软件平台,采用多尺度分割和面向对象分类方法快速获取了影像分类结果。
结果表明,该方法分类精度较高,能有效提高工作效率。
关键词:水土流失;土地利用;多尺度分割;面向对象分类;eCognition中图法分类号:S157 文献标志码:A D O I:10. 16232/ki. 1001 -4179.2017. 12. 020水土流失可破坏水土资源,恶化生态环境,加剧自 然灾害,严重制约国家经济社会的可持续发展。
开展 水土流失动态监测对水土保持科学决策、生态建设和 环境保护至关重要。
近年来,遥感监测已成为区域水 土流失监测的重要技术手段。
土地利用、植被覆盖等 水土流失影响因子信息提取是遥感监测的核心环节,采用人工目视判读方法,往往需要很大的人力物力支 撑,所以通过一些自动或者半自动的分类方法是提高 工作效率的重要途径。
eCongnition作为世界第一个面 向对象的分类软件,可以有效地提高图像分类的效率,同时拥有较高的精度。
1面向对象的分类遥感图像分类的方法有很多种,例如K均值分 类、最大似然法分类、支持向量机分类、神经网络法分 类和面向对象法分类等。
非面向对象分类的方法是基 于像元的光谱信息进行分类,但是因为同物异谱以及 异物同谱现象的大量存在,容易产生“椒盐现象”,使 得这些方法分类效果不好,尤其是在对一些分辨率高 的遥感影像进行分类的时候。
比较标准的土地覆盖遥感分类系统

土地覆被分类系统分为二级:一级为IPCC土地覆被类型,二级基于碳收支的LCCS土地覆被类型。
土地覆被图例系统中,一级为6类,对应IPCC的6类,二级类型由FAO LCCS的方法进行定义,共38类,具有统一的数据代码,便于政府间、国际组织的数据交换与对比分析,反映通用的土地覆被特征(表1)。
注:C:覆盖度\郁闭度(%);F:针阔比率(%);H:植被高度(米);T:水一年覆盖时间(月);K:湿润指数1、二级类型定义1:林地:木本为主的植物群落。
其郁闭度不低于20%,高度在0.3米以上。
包括自然、半自然植被,及集约化经营和管理的人工木本植被。
101:常绿阔叶林:双子叶、被子植被的乔木林,叶型扁平、较宽;一年没有落叶或少量落叶时期的物候特征。
乔木林中阔叶占乔木比例大于75%,常绿阔叶林占阔叶林50%以上,高度在3米以上。
半自然林属于此类,该植被可以恢复到与达到其非干扰状态的物种组成、环境和生态过程无法辨别的程度,如绿化造林、用材林、城外的行道树等。
102:落叶阔叶林:双子叶、被子植被的乔木林,叶型扁平、较宽;一年中因气候不适应、有明显落叶时期的物候特征。
乔木林中阔叶占乔木比例大于75%,落叶阔叶林占阔叶林50%以上,高度在3米以上,包括半自然林。
103:常绿针叶林:裸子植物的乔木林,具有典型的针状叶;一年没有落叶或少量落叶时期的物候特征。
乔木林中针叶占乔木比例大于75%,常绿针叶林占针叶林50%以上,高度在3米以上,包括半自然林。
104:落叶针叶林:裸子植物的乔木林,具有典型的针状叶;一年中因气候不适应、有明显落叶时期的物候特征。
乔木林中针叶占乔木比例大于75%,落叶针叶林占针叶林50%以上,高度在3米以上,包括半自然林。
105:针阔混交林:针叶林与阔叶林各自的比例分别在25%-75%之间,高度在3米以上,包括半自然林。
106:常绿阔叶灌木林:叶面保持绿色的被子灌木群落。
具有持久稳固的木本的茎干,没有一个可确定的主干。
利用地形参数提高土地覆被分类精度方法的改进

Improvement of Method of Enhancing Classification Accuracy of Land Cover Based on Terrain Factors
LIAO Shunbao,GE Lewei,WANG Yanping,LI Feng {College of Ecology and Environment, Institute of Disaster Prevention ,Beijing 101601 ,CAzna) Abstract:In order to improve the classification accuracy of the MODIS based land cover product,the Beijing-Tianjin-Hebei region is taken as the study area in this paper, and multiple linear stepwise regression models between area ratios of land cover categories and terrain factors are established based on consistent classification regions between the reference data (land cover data at scale of 1 to 250 000) and the target product(MODIS based land cover product, MCD12QI). The models are used to improve the classification accuracy of the target land cover products in the regions where the land cover categories of the target data product is inconsistent with those of the reference data. Proportion of areal composition and ratio of spatial consistency are used to evaluate the improved effect. The following results are found that: 1) The regression models for forest land, grassland and cultivated land are suitable for improving classification accuracy of the MODIS based land cover product. The ratios of spatial consistency for the above three land cover categories are improved by 30. 02% ,40. 87% and 4. 94% ,respectively. 2)For forest land and grassland closely related to topographic factors, both of the two evaluation indexes (proportion of areal composition and ratio of spatial consistency) show that it is more effective to use the models based on the consistent class辻ication regions than to use those based on the whole study area for enhancing classification accuracy of the target land cover product. The ratios of spatial consistency for forest land and grassland are improved from 8. 55 % to 30. 02% and from 27. 44% to 40. 87% ,respectively. Therefore, the following conclusions can be drawn from this study: topographic features play important roles in the formation of land cover categories ; there are strong correlations between the areal proportion of land cover types and terrain factors?and it is feasible to improve land cover classification based on the relationships. Key words: MODIS ; land cover ; classification ; terrain factor ; improvement
eCognition (易康)1软件介绍

软件功能
图斑属性定义--分类
u 基于知识的分类方法 u 多条件类定义分类 u 隶属度函数(模糊)分类 u 分类器分类方法(5种主流方法) u 模板匹配分类方法 u 深度学习分类方法(卷积神经网络)
软件功能
成果优化--规整化
软件功能
点云分析
软件功能
时间维度--变化检测
u 前后期影像变化分析 u 前后期矢量变化分析 u 前期矢量&后期影像变化
− 目标/挑战
− 自动提取建筑轮廓并绘制植被图斑 − 支持城市规划 − 对地图快速更新 − 降低成本缩短工作周期 − 高精准度
基于数字高程模型的LIDAR影像支持的建筑 物及植被提取
农作物识别
项目需求
使用高分辨率偏振SAR数据进行 农作物种植类别分类
数据
E-SAR 分辨率2-3m 波段和极化方式:X-HH, X-VV, CVH, C-VV, L-HH, L-VV, L-HV 右图为RGB组合L-HH, C-W, L-W
eCognition是什么?
技术原理…
易康是什么?
eCognition--信息分析软件,旨在提高,加速和自动化地理空间数据的解译。
地理空间作业流程 ---从影像、点云到GIS的过程
数据获取
数据预处理
信息解译
收集
• 影像数据 • 点云数据
处理
• 几何校正 • 正射校正 • 图像融合 • 高程模型
分析
• HTML 用户界面 • 管理控制台 • 软件开发工具包
易康软件具体分析功能?
易康软件主要功能
软件功能
波段运算 分割 分类 变化检测 成果优化 点云数据处理 手动编辑 标准化分析流程制作 并行运算 矢量数据分析 …
全国土地利用数据遥感信息提取土地利用数据说明

全国土地利用数据遥感信息提取土地利用数据说明北京揽宇方圆信息技术有限公司是中国科学院系统的遥感影像数据服务企业,专注于遥感影像数据一站式的基础卫星数据服务、卫星影像数据处理服务。
土地利用数据时间:1985年、1990年、1995年、2000年、2005年、2010年、2015年土地利用数据源:Landsat TM影像Landsat ETM影像土地利用数据遥感信息的提取:根据影像光谱特征,利用ARCGIS、易康软件、ENVI软件等,同时参照有关地理图件,对地物的几何形状,颜色特征、纹理特征和空间分布情况进行分析,提取土地利用信息。
土地利用/覆被变化信息的提取。
采用arcgis与易康结合,它通过分析地物光谱特征和其他图像特征,充分利用高程、坡度等地理辅助信息可以有效地提高分类精度,比较适合于地形破碎、地物分布复杂的地区。
基于Landsat TM遥感影像,采用全数字化人机交互遥感快速提取方法,同时参考国内外现有的土地利用/土地覆盖分类体系,以及遥感信息源的实际情况,将遥感影像进行解译并进行验证将土地利用数据类型划分为6个一级分类,24个二级分类以及部分三级分类的土地利用/土地覆盖数据产品,并结合本项目制定土地利用数据产品分类体系。
目视解译侧重于人的知识的参与,为了减少由于不同人员的主观差异性所造成的误差,提高遥感判读精度,因此建立统一解译标志是十分必要的。
根据影像光谱特征,结合野外实测资料,同时参照有关地理图件,对地物的几何形状,颜色特征、纹理特征和空间分布情况进行分析。
一、TM影像数据的预处理。
遥感数据处理主要包括大气校正、几何校正和图像增强,并利用行政边界矢量图对影像进行裁剪。
二、土地利用变化信息提取。
首先对其中的一期影像分别采用人工解译的方法,然后利用易康开始分类。
三、数据集成对数据形式特征(如格式、单位、分辨率、精度)等和内部特征(特征、属性、内容等)做出全部或部分的调整、转化、合成、分解等操作,形成充分兼容的数据库。
基于eCognition的绿地利用变化检测应用研究

基于eCognition的绿地利用变化检测应用研究宋杨;李长辉;林鸿;陈鹏【摘要】The detection of Greenland based on high resolution remote sensing images is an effective method to analyse and understand the greenland pattern.The paper took a set of QuickBird images of two times as study areas.Object-oriented information extraction technology,as well as NDVI,multi-segmentation were used to extract greenland and no-greenland objects.The results of experiment were famous,the classification objects of greenland were integrate,as well as the trend of greenland changes were consistent with the facts.%基于高分辨率遥感图像提取绿地信息是分析和掌握城镇绿地分布格局及其动态变化的有效途径。
本文采用不同时相的遥感影像资料,借助面向对象的分类方法、结合多尺度分割、地物光谱信息、植被指数等特征对绿地利用变化情况进行检测。
【期刊名称】《城市勘测》【年(卷),期】2011(000)005【总页数】4页(P81-83,97)【关键词】面向对象;变化检测;遥感;eCognition【作者】宋杨;李长辉;林鸿;陈鹏【作者单位】广州市城市规划勘测设计研究院,广东广州510060;广州市城市规划勘测设计研究院,广东广州510060;广州市城市规划勘测设计研究院,广东广州510060;广州市城市规划勘测设计研究院,广东广州510060【正文语种】中文【中图分类】P237;TP7531 引言20世纪80年代起,遥感技术逐渐成熟并广泛应用于城市绿地景观的研究,遥感影像数据是开展城市绿地覆盖变化研究的重要数据源。
eCognition在土地利用项目中的应用

第28卷第6期2005年12月测绘与空间地理信息GEOMAT ICS &SPAT IAL I N FORMAT ION TEC HN OLOGYV o.l 28,N o .6D ec .,2005收稿日期:2005-01-27作者简介:丁晓英(1977-),女,广东潮州人,硕士,主要从事河口环境及水土保持遥感研究工作。
e Cogn iti on 在土地利用项目中的应用丁晓英(珠江水利委员会科研所,广东广州510611)摘要:主要介绍了e Cogn ition 对高分辨率卫星影像进行地物分类的技术方法。
并以深圳铁岗水库附近地区为例,说明该技术在土地利用分类中应用的可行性和潜力,为高分辨率卫星影像在地物分类中的有效应用提供了新的技术手段。
关键词:e Cogniti on ;高分辨率卫星影像;分类;土地利用中图分类号:P208 文献标识码:B 文章编号:1672-5867(2005)06-0116-02The Application of e Cognition in Land Use ProjectsD I NG X i ao yi ng(Instit ute o f P earl R i ve rW ate r R esources Comm i ssi on ,G uangzhou 510611,Chi na)Abstrac t :Th is paper ma i n l y i ntroduces t he app licati on of eCogn iti on i n l and use classificati on usi ng hi gh-resoluti on re m ote sens i ngdata .U si ng th i s so ft ware ,we c l assifi ed land use o f Shenz hen T i egang area by SPOT 5i m agery .T h i s paper d i scussed the feasibility and potenti a l of eCogn i tion soft w are i n l and use classificati on .It a lso presented a new e ffective technical way to c l assify the land use us i ng h i gh-reso l uti on re m ote sensing i m agery .K ey word s :eCogn i tion ;h i gh reso l ution remo te sensi ng i m agery ;classificati on ;land use0 引 言近年来,随着空间遥感技术的发展,高分辨率遥感影像在资源调查、环境监测等领域中的应用日益广泛。
基于eCognition和Google earth影像的土地利用分类

基于eCognition和Google earth影像的土地利用分类作者:王欢欢来源:《数字技术与应用》2018年第08期摘要:传统的土地利用分类和信息提取主要是基于中低分辨率遥感图像的,本文研究基于易于获得的高分辨率的Google earth(GE)影像,利用面向对象的易康(eCognition)软件进行土地利用分类。
本文利用面向对象的思想,对没有近红外波段的GE遥感影像进行监督分类和基于隶属度函数的非监督分类得到试验区的土地利用图。
关键词:面向对象;多尺度分割;光谱差异分割;监督分类;隶属函数法中图分类号:TP751;U674.70 文献标识码:A 文章编号:1007-9416(2018)08-0209-031 引言易康(eCognition)系列软件作为面向对象影像分析技术的专业软件,与传统的遥感软件ERDAS、ENVI、PCI等有明显的不同,虽然ERDAS和ENVI里也有相应的面向对象分类模块,但其对高分辨率影像的信息提取效果,及高分辨率影像涉及的各个行业的应用范围无法与易康软件相比。
易康软件的面向对象方法包括影像分割和分类提取两部分[1]。
“分割”是面向对象分类的基本前提,是指依据某种同质性或者异质性标准,将影像划分成很多小块对象的过程,常用的面向对象的分割方法有多尺度分割和光谱差异分割。
江华使用多尺度分割进行福州琅岐岛土地利用分类[1];陈韬亦等人结合使用多尺度分割与光谱差异分割进行光学遥感图像分类,以检测舰船目标[2]。
本文考虑的是多尺度分割与光谱差异分割在土地利用分类上的结合应用。
而“分类”是指依据小块对象的形状、颜色、纹理、空间关系、隶属关系等属性来识别所属类别的过程,常用的面向对象的分类方法有隶属度函数分类法和监督分类法。
分割是分类的基础,分割效果的好坏直接关系到分类的精度。
本文以重庆市九龙坡区部分城区为例,利用面向对象技术,对没有近红外的GE遥感影像进行土地利用分类研究,得到重庆九龙坡区某片城市地区的土地利用图。
eCognition培训教材(可编辑)

eCognition培训教材易康eCognition培训教程目录1.多尺度分割.11.1创建一个新工程..21.2执行多尺度分割..51.3创建多重影像对象层101.4编辑均质标准..141.5利用专题层..162.分类..202.1利用昀邻近分类器进行分类..242.2利用隶属度函数分类302.3 利用继承和组层次结构372.4 创建一个复杂的类层次结构472.5 利用掩模技术及类间相关特征.512.6 基于分类的分割..573.样例工程..623.1创建一个多层工程62易康ECOGNITION工作流程..74天目创新 //0>. 易康eCognition培训教程欢迎学习易康eCognition培训指南,这个培训指南有三个模块,每个模块下的教程您都可以在指导者的帮助下练习。
教程的内容是基于日常工作中的常见问题而设计的,以易康eCognition关键应用和特征为范例,对完成基本的处理提供指导。
培训指南此指南一般是在德国 Definiens-Imaging 公司派出的专业指导者的指导下使用。
所有的指导者都是地学和易康 eCognition软件方面的专家,可以在培训过程中随时回答您提出的任何问题。
在教程结束后,您可以将培训教程带走,如果您乐意,您可以在页面上做笔记,这样有助于以后理解。
此指南仅限于易康 eCognition软件的核心应用部分。
在接受培训前,学生须对遥感基础知识进行自行掌握。
模块培训分为以下三部分,进行从分割到分类的全程讲授。
第一部分: 分割第二部分: 分类第三部分: 样例工程教程这个指南中的每一个模块都包含了一系列的手动练习,帮您熟悉软件和样例数据。
教程会有简要的介绍,紧接着再一步步地进行操作练习。
数据这个指南中的所有的教程都使用提供给您的样例数据。
培训完后,您可以利用指导者提供给您的样例数据重新练习一下。
请等指导者介绍完教程材料后再进行模块的练习。
开始练习接下来的教程,您就有机会利用易康 eCognition的一些工具进行练习了。
基于随机森林的土地利用与土地覆盖分类

基于随机森林的土地利用与土地覆盖分类作者:刘艳艳刘汉湖来源:《科技创新导报》2020年第25期摘要:利用遥感影像进行城市土地利用与土地覆被分类(LULCC)是遥感的主要应用之一,但由于城市景观的不均匀性和光谱响应的混杂性,对土地利用分类提出了挑战。
随着人工智能的惊人创新进展,机器学习在遥感图像开发中越来越受欢迎。
使用目视判读和经过修改的美国地质调查局(USGS)土地利用与土地覆被1级分类方案选择训练区域;输入数据包括10波段10m或20m可见光,近红外和SWIR SMI波段图像,导出NDVI和纹理层;基于随机森林算法创建模型并生成土地利用类别预测。
根据时间匹配的高分辨率谷歌地球Pro历史图像,评估得到的LULCC栅格地图的准确性。
结果发现,基于随机森林的土地利用及土地覆被分类表现较好。
关键词:GIS应用机器学习土地利用与土地覆盖分类随机森林中图分类号:TP751 文献标识码:A 文章编号:1674-098X(2020)09(a)-0026-03Abstract:Urban land use and cover classification from remotely sensed imagery is one of the major applications of remote sensing. However, due to the inhomogeneity of urban landscape and the confounding of spectral response, the classification of land use is challenged. With the amazing innovative advancements in artificial intelligence, machine learning has gained increased popularity in exploiting remote sensing imagery.Training areas were selected using visual interpretation and a modified USGS level-1 classification program for land use and land cover. Input data include 10-band 10 m or 20 m visible, NIR and SWIR SMI band images, derived NDVI and textural layers. Based on the random forest algorithm, the model was created and the land use category prediction was generated. The accuracy of the resulting LULCC raster map was assessed against temporally matched high-resolution Google Earth Pro historical imagery. It was found that random forest based classifier achieved significantly higher overall accuracy and kappa value.Key Words:GIS application; Machine Learning;Land use and land cover classification; Random Forest機器学习方法通过结构化数据来分析研究数据,帮助了解目标图像之间的差异,与传统方法相比更为自动化,因此在分类研究领域有着广泛的前景。
eCognition(易康)软件在城市绿化覆盖调查中的应用

eCognition(易康)软件在城市绿化覆盖调查中的应用发表时间:2018-03-22T14:32:50.237Z 来源:《防护工程》2017年第32期作者:陶方李文林熊健[导读] 随着影像提取技术、遥感处理技术和计算机智能化等技术的发展,影像提取的工作将会越来越便捷、需要人工干涉的内容也会越来越少、精度也将越来越高。
江苏省地质勘查技术院江苏南京 210018摘要:城市绿化覆盖调查是结合江苏省自然地理现状、美丽江苏建设需要及政府、公众关注点的要求下开展的任务。
本论文以易康软件作为平台,在已有航天遥感影像的基础上,研究如何使用遥感影像半自动解译等方法,通过遥感影像获取与处理、城市绿化信息提取等技术,对城市建成区和中心城区开展城市绿化覆盖遥感调查,获取城市绿化覆盖解译成果及统计分析成果。
关键词:易康;高分辨率影像;多尺度分割;地物提取0引言城市绿化覆盖调查可以反映出城市绿化建设的覆盖程度,对城市绿化及生态环境以及城市生存环境可进行对比分析,得出的数据可以反应城市宜居指数,也为城市生态建设提供指引。
随着卫星数据的积累,我们虽然获取大量的高分辨率影像,但使用传统的人工矢量化方式进行生产,无法满足城市绿化覆盖调查大范围、更新快的需求。
如何减少人工编辑的工作量同时又能高效准确的提取地物信息,是目前制约着遥感技术发展的一个难题。
因此,自动、高效、准确的基于遥感影像地物提取方法已经成为遥感应用领域的主要发展方向。
本文将通过易康软件,研究如何通过高分辨率卫星影像来提取城市绿化信息。
1 eCognition(易康)软件eCognition是全球第一个基于面向对象的影像分析软件,其面向对象的影像分析方式可充分利用已有的矢量、栅格、DEM、点云等数据信息对所有类型的常用影像数据源进行智能高效的解译。
城市绿化覆盖调查的解译方案分为人工解译和自动解译。
人工解译耗时长、综合不够精确、人为主观判断因素影响过大,而全自动解译存在难度大、地物提取不够智能、工程化应用太难等弊端,因此两者结合是目前最好的解决方案。
易康-ETM+影像土地覆盖分类详细介绍

Hands on Exercise Using eCognition DeveloperGo the Windows Start menu and Click Start > All Programs> eCognition Developer 8.0> eCognition DeveloperUpon launching Definiens eCognition Developer 8, the following dialog appears:Figure: eCognition 8 launch screenFigure : The default display eCognition 81.Create a New Project• To Create New Project do the following:• Choose File > New Project on the main menu bar.• Navigate the folder C:\GISRS_Trn\Definiens• Select Image.img > Open (Here is image file Landsat ETM+, R136/P44)• Then select from the appropriate file in the files type.To open some specific file formats orstructures, you have to proceed as follows:• First select the correct driver inthe Files of type drop-down list box•Double-Click on Image Layer AliasRename the all layers name• Click>OK• Click> Insert > Select DEM.imgand Slope> Open• Double-Click on Layer Alias Rename the all the layers name Layer 1 (Blue),Layer 2 (Green), Layer 3 (Red), Layer 4 (Near IR), Layer 5 (Mid-IR), Layer 7 (Mid-IR), Layer 8 (DEM), Layer 8 (Slope)• Click > File> Save Project > Test.dpr1.1Subset SelectionNormally, image files are large in size and difficult to process. So we will be working with a smaller area to manage easily, which will take less memory and time. You can crop your image on the fly in the viewer by using Subset option without changing your original image file. You can create a "subset selection"when you start a project or during modification.To open the Subset Selection dialog box, do the following:• After importing image layers press the Subset Selection button.• Click on the image and Drag to select a subset area in the image viewer.• Alternatively, you may enter the subset coordinates. You can modify the coordinates by typing.• Confirm with OK to return to the superordinate dialog box.• You can clear the subset selection by Click ing Clear Subset in the superordinate dialog box.1.2Insert Thematic LayerGeographic representations are organized in a series of data themes, which are known as thematic layers. During the image classification with eCognition, you can insert shape file as a thematic layer and you can also use it in the process of image classification (if required).During the new project creating or modifying time, Shape files or other vector files can be inserted to viewer. To insert a thematic layer, do the followings:• Click the Insert button• Choose Thematic Layers > Insert on the menu bar of the dialog box.• Right-Click inside the thematic layer list and choose Insert from the context menu.The Import Thematic Layer dialog box opens, which is similar to the Import Image Layers dialog box.1.2.1Modify a ProjectUsing Modify a Project you can add/remove more image or thematic layer or you can rename project. Modify a selected project by exchanging or renaming image layers or through other operations.To modify a project, do the followingOpen a project and choose File > Modify Open Project on the main menu bar.• The Modify Project dialog box opens.• Modify the necessary things• Click OK to modify the project• Save a ProjectSave the currently open project to a project file (extension .dpr ).To save a project, do the following:• Choose File > Save Project on the main menu bar.• Choose File > Save Project As… on the main menu bar. The Save Project dialog box opens. Select a folder and enter a name for the project file (.dpr ). Click the Save button to store the file.2. Image Objects by SegmentationThe fundamental step of any eCognitionimage analysis is to do segmentation of ascene— representing an image—into imageobject primitives. Thus, initial segmentation isthe subdivision of an image into separatedregions represented by basic unclassifiedimage objects called image object primitives.For successful and accurate image analysis,defining object primitives of suitable size andshape is of utmost importance. As a rule ofthumb, good object primitives are as large aspossible, yet small enough to be used as building blocks for the objects to be detectedin the image. Pixel is the smallest possible building block of an image, however it has mixture of information. To get larger buildingblocks, different segmentation methods areavailable to form contiguous clusters of pixelsthat have larger property space.Commonly, in image processing,segmentation is the subdivision of a digitalimage into smaller partitions according togiven criteria. Different to this, within theeCognition technology, each operation thatcreates new image objects is calledsegmentation, no matter if the change isalgorithms provide several methods ofcreating of image object primitives.The new image objects created bysegmentation are stored in a new imageobject level. Each image object is definedby a contiguous set of pixels, where eachpixel belongs to exactly one image object.Each of the subsequent image objectrelated operations like classification,reshaping, re-segmentation, andobject levels serve as internal working areasof the image analysis.1.3 Classification of Land Cover Using Landsat ETM+ ImageImage Classification is a process of sorting pixels into a number of data categories based on their data file values and reducing images to information classes. Similar features will have similar spectral responses. The spectral response of a feature is unique with respect to all other features of interest. If we quantify the spectral response of a known feature in an image, we can use this information to find all occurrences of that feature throughout the image.1.3.1 Display the Image or Edit the Image Layer MixingDisplay the Image or Edit the Image Layer Mixing is one kind of band combination process. Often an image contains valuable information about vegetation or land features that is not easily visible until viewed in the right way. For this reason, in eCognition, you have to use Display the Image or Edit the Image Layer Mixing . The most fundamental of these techniques is to change the arrangement of the bands of light used to make the image display. In order to display an image in eCognition, assigns one or RGB color to each of up to three bands of reflected visible or non-visible light.You have the possibility to change the display of the loaded data using the ‘Edit Layer Mixing’ dialog box. This enables you to display the individual channels of a combination.• To open the ‘Edit Image Layer Mixing’, do one of the following:• From the View menu, select Image Layer Mixing• Click View > Image Layer Mixing on the main menu bar.Or Click on the Edit Image Layer Mixing button in the View Settings toolbar.Figure: Edit Image Layer Mixing dialog box. Changing the layer mixing and equalizing options affects the display of the image onlyChoose a layer mixing preset:∙(Clear): All assignments and weighting are removed from the Image Layer table ∙One Layer Gray displays one image layer in grayscale mode with the red, green and blue together∙False Color (Hot Metal) is recommended for single image layers with large intensity ranges to display in a color range from black over red to white. Use this preset for image data created with positron emission tomography (PET) ∙False Color (Rainbow) is recommended for single image layers to display a visualization in rainbow colors. Here, the regular color range is converted to acolor range between blue for darker pixel intensity values and red for brighterpixel intensity values∙Three Layer Mix displays layer one in the red channel, layer two in green and layer three in blue∙Six Layer Mix displays additional layers.∙For current exercise change the band combinations (B7, B2, and B1) and Equalizing Histrogram any others∙Click> OK1.4Create Image ObjectsThe fundamental step of any eCognition image analysis is a segmentation of a scene—representing an image—into image objects. Thus, initial segmentation is the subdivision of an image into separated regions represented by basic unclassified image objects called ‘Image Object Primitives’.1.5View Settings ToolbarThe View Settings Toolbar buttons, numbered from one to four, allow you to switch between the four window layouts. These are Load and Manage Data, Configure Analysis, Review Results and Develop Rule Sets. As much of the User Guide centers around writing rule sets – which organize and modify image analysis algorithms – the view activated by button number four, Develop Rule Sets, is most commonly usedIn the ‘View Settings’ toolbar there are 4 predefined View Setting s available, specific to the different phases of a Rule Set development workflow.View Settings toolbar with the 4 predefined View Setting buttons: Load and Manage Data, Configure Analysis, Review Results, Develop Rule Sets.Select the predefined View Setting number 4 ‘Develop Rulesets’ from the ‘View Settings’ toolbar.For the ‘Develop Rulesets’ view, per default one viewer window for the image data is open, as well as the ’Process Tree’ and the ‘Image Object Information’ window, the ‘Feature View’ and the ‘Class Hierarchy1.6Insert Rule for Object CreationThis is the first step of image classification in eCognition. This is a kind of assigning condition/s. Based on this, it will create image objects or segments. Within the rule sets, you can use variables in different ways. While developing rule sets, you commonly use scene and object variables for storing your dedicated fine-tuning tools for reuse within similar projects.1.6.1Insert a Process1.6.1.1Insert a Parent ProcessA parent process is used for grouping child processes together in a hierarchy level. The typical algorithm of the parent process is "Execute child process".• To open the Process Tree window Click Process> Process Tree• Go to the Process Tree window, which might be empty since you did not putany process yet.1.6.1.2Insert a Segmentation Parent Process• Right-Click in the ‘Process Tree’ window and select ‘Append New’ from thecontext menu.New Dialog box (Edit Process) will be appeared.In the ‘Name’ field enter the name ‘Segmentation’ and confirm with ‘OK’. It will be your Parents of Segmentation.1.6.1.2.1Insert a Child Process ( Multiresolution Segmentation)The child processes algorithm in conjunction with the no image object domain to structure to your process tree. A process with this setting serves as a container for a sequence of function related processes.The first crucial decision you have to make is which algorithm to be used for creating objects. The initial objects you create will be the basis for all further analysis. Multiresolution Segmentation creates groups of areas of similar pixel values into objects. Consequently, homogeneous areas result in larger objects, heterogeneous areas in smaller ones.• Select the inserted Segmentation Process and Right-Click on it. Choose ‘Insert Child’ form the context menu.• Click Algorithm > Select Multiresolution Segmentations• Give the level name (Level-1)• Change the image layer weights• Change the scale parameter and etc.• Click > OKWhich layers to be used for creating Objects?The basis of creating image objects is the input-data. According to the data and the algorithm you use, objects results in different shapes. The first thing you have to evaluate, which layers contain the important information. For example, we have two types of image data, the Image and the DEM. In most Segmentation algorithms you can choose whether you want to use all data available or only specific layer. It depends on where the important information is contained. In our case, we want to use VIS and NIR band for image object creation.Which Scale Parameter to be set?The ‘Scale parameter’ is an abstract term. It is the restricting parameter to stop the objects from getting too heterogenity. For the ‘Scale parameter’ there is no definite rule, you have to use trial and error to find out which ‘Scale parameter’ results in the objects is useful for your further classification.• Right-Click one the process and select execute to execute the MultiresolutionSegmentation process.1.7Create Relational Feature• To open the Relational Feature window, Click Tools> Feature ViewFeature View will be appeared.• Double-Click on Create new ‘Arithmetic Feature’, Edit Customize Feature will be appeared• Assign the Feature name > NDVIThe Normalized Difference Vegetation Index (NDVI)is a simple numerical indicator that can be used to analyze remote sensing measurements. NDVI is related to vegetation, where healthy vegetation reflects very well in the near infrared part of the spectrum. Index values can range from -1.0 to 1.0, but vegetation values typically range between 0.1 and 0.7.Free standing water (ocean, sea, lake, river, etc.) gives a rather low reflectance in both spectral bands and thus result in very low positive or even slightly negative NDVI values.Soils which generally exhibit a near-infrared spectral reflectance somewhat larger than the red, and thus tend to also generate rather small positive NDVI values (say 0.1 to 0.2).NDVI = (NIR - red) / (NIR + red)NDVI (ETM+) = (Band 4 - Band 3) / (Band 4 + Band 3)• Double-Click on Layer Values and then Mean Layer appear• Double-Click on Landsat ETM+ band and complete the formula for NDVIFor NDVI = ([Mean Layer 4 (Near IR)]-[Mean Layer 3 (Red)])/([Mean Layer 4(Near IR)]+[Mean Layer 3 (Red)])• Click >OKLand & Water Mask (LWM)Land and Water Mask index is a very useful tool to differentiate between land and water. This is very important variable to classify all type of waterbodies. Index values can range from 0 to 255, but water values typically range between 0 and 50.Water Mask = (MIR) / (Green) * 100• Assign the Feature name > Land & Water MaskLand & Water Mask (LWM) = [Mean Layer 5 (Mid-IR)]/([Mean Layer 2(Green)])*100Click > OK1.8Insert the Class/Class HierarchyNew Dialog box will be appear• On the Class Hierarchy Right-Click and Choose ‘Insert Class’ form the context menu and Class description dialog Box will be appeared,• On the Class description, give the class name Deep To Medium Deep Perennial Natural Waterbodies and Click> OK1.9Insert a Classification Parent Process• Right-Click in the ‘Process Tree’ window and select ‘Append New’ from the context menu.New Dialog box will be appeared.In the ‘Name’ field enter the name ‘Classification’ and confirm with ‘OK’. It will be your parents of Classification• Select the inserted Classification Process and Right-Click on it. Choose ‘Insert Child’ form the context menu.• In the ‘Name’ field, enter the name Perennial Natural Waterbodies and confirm with ‘OK’. It will be your Parents Class for a particular class (in this case, for Deep to Medium Perennial Natural Waterbodies Class).1.9.1Assign Class AlgorithmThe Assign Class algorithm is the most simple classification algorithm. It determines by means of a threshold condition whether the image object is a member of the class or not.This algorithm is used when one threshold condition is sufficient to assign an Image Object to a Class.Classify the Deep To Medium Deep Perennial Natural Waterbodies• Select the inserted Classification Process and Right-Click on it. Choose ‘Insert Child’ form the context menu and Assign Class Algorithm• In the Edit Process dialog box, select assign class from the Algorithm list.• In the algorithm parameter Use class, select Deep To Medium Deep Perennial Natural Waterbodies.• In the Image Object Domain group Click > Select image object level• In the Image Object Domain group set the Parameter Click on Level> Select Level-1• In the Class Filter dialog box, Select unclassified from the classification list.• In the Image Object Domain (Parameter) group Click the Threshold condition; it is labeled … if condition is not selected yet.• From the Select Single Feature box’s Double-Click on Land & Water Mask (LWM) assign the threshold <= 20 Click > OK to apply your settings• Right-Click one the process and select execute to execute the Perennial Natural Waterbodies process or Using F5 Execute the Process.2.5 Classify the Lake• Select the inserted Classification Process and Right-Click on it. Choose ‘Insert Child’ form the context menu.• In the ‘Name’ field, enter the name Lake and confirm with ‘OK’1.9.2Assign Class Algorithm for LakeThe Assign Class algorithm is the most simple classification algorithm. It determines by means of a threshold condition whether the image object is a member of the class or not.This algorithm is used when one threshold condition is sufficient to assign an Image Object to a Class.Classify the Lake• Select the inserted Classification Process and Right-Click on it. Choose ‘Insert Child’ form the context menu and Assign Class Algorithm• In the Edit Process dialog box, select assign class from the Algorithm list.• In the algorithm parameter Use class, select Lake.• In the Image Object Domain group Click > Select image object level• In the Image Object Domain group set the Parameter Click on Level> Select Level-1• In the Class Filter dialog box, Select unclassified from the classification list. • In the Image Object Domain (Parameter) group Click the Threshold condition; it is labeled … if condition is not selected yet.• From the Select Single Feature box’s Double-Click on Land & Water Mask (LWM) assign the threshold <= 52 Click > OK to apply your settings• Right-Click one the process and select execute to execute the Lake process or Using F5 Execute the Process.*Note: Based on the LWM algorithm others land cover area has been classified as Lake. So you have to use few more conditions for refining the Lake area.• In the Edit Process dialog box, select merge region from the Algorithm list and Fusion super objects Yes• In the Image Object Domain Select Level-1 and In the Class filter Select > Lake > OK• Using F5 Execute the algorithm• In the Edit Process dialog box, select assign class from the Algorithm list and Use class unclassified• In the Image Object Domain select image object level and parameter Level > Level-1, Class> Lake• In the parameter Click on Threshold condition and to apply your bellow settingsFeature select Area and Threshold <= 3600000• Using F5 Execute the Lake algorithmFigure Classified lake area2.6 Classify the River• Select the inserted Classification Process and Right-Click on it. Choose ‘Insert Child’ form the context menu.• In the ‘Name’ field, enter the name River and confirm with ‘OK’1.9.3Assign Class Algorithm for RiverThe Assign Class algorithm is the most simple classification algorithm. It determines by means of a threshold condition whether the image object is a member of the class or not.This algorithm is used when one threshold condition is sufficient to assign an Image Object to a Class.Classify the River• Select the inserted Classification Process and Right-Click on it. Choose ‘Insert Child’ form the context menu and Assign Class Algorithm• In the Edit Process dialog box, select assign class from the Algorithm list. • In the algorithm parameter Use class, select River.• In the Image Object Domain group Click > Select image object level• In the Image Object Domain group set the Parameter Click on Level> Select Level-1• In the Class Filter dialog box, Select unclassified from the classification list. • In the Image Object Domain (Parameter) group Click the Threshold condition; it is labeled … if condition is not selected yet.• From the Select Single Feature box’s Double-Click on Land & Water Mask (LWM) assign the threshold <= 34 Click > OK to apply your settings• Right-Click one the process and select execute to execute the River process orUsing F5 Execute the Process.*Note: Based on the LWM algorithm others land cover area has been classified as River. So you have to use few more conditions for refining the River area.• In the Edit Process dialog box, select assign class from the Algorithm list and Use class unclassified• In the Image Object Domain select image object level and parameter Level > Level-1, Class> River• In the parameter Click on Threshold condition and to apply your bellow settingsFeature select Length/Area and Threshold <= 1.6Similar way add following condition for river and • Using F5 Execute the Lake algorithm2.7 Classify the Broadleaved Tree Crop• Select the inserted Classification Process and right-click on it. Choose ‘Insert Child’ form the context menu.New Dialog box will be appearIn the ‘Name’ field enter the name ‘Broadleaved Tree Crop’ and confirm with‘OK’. It will be your parents of Classification• In the Edit Process dialog box, select assign class from the Algorithm list.Classify the Broadleaved Tree Crop• Select the inserted Classification Process and Right-Click on it. Choose ‘Insert Child’ form the context menu and Assign Class Algorithm• In the Edit Process dialog box, select assign class from the Algorithm list. • In the algorithm parameter Use class, select Broadleaved Tree Crop.• In the Image Object Domain group Click > Select image object level• In the Image Object Domain group set the Parameter Click on Level> Select Level-1• In the Class Filter dialog box, Select unclassified from the classification list. • In the Image Object Domain (Parameter) group Click the Threshold condition; it is labeled … if condition is not selected yet.• From the Select Single Feature box’s Double-Click on NDVI assign the threshold => 0.35 Click > OK to apply your settings• Right-Click one the process and select execute to execute the Broadleaved Tree Crop process or Using F5 Execute the Process.*Note: Based on the LWM algorithm others land cover area has been classified as Broadleaved Tree Crop. So you have to use few more conditions for refining the Broadleaved Tree Crop area.Similar way add other condition for Broadleaved Tree Crop and • Using F5 Execute the Broadleaved Tree Crop algorithmPlease set following condition for others land coverBare Soil in seasonally flooded areaBare SoilUrban andIndustrial AreasIrrigated Herbaceous CropRainfed Herbaceous CropClosed toOpenRoot ed ForbClosed to OpenGrasslandSmallHerbaceousCropsin sloping landClosed to Open Seasonally Flooded ShrubsClosed to Open ShrublandSmall Sized Field Of Tree CropBroadleaved Tree CropBroadleaved Open ForestBroadleaved Closed ForestClassified Land cover*Note The entire classification process shown base on single variable. For better results more variable need to use.2.8 Manual EditingManual editing of image objects and thematic objects allows you to manually influence the result of an image analysis. The main manual editing tools are Merge Objects Manually, Classify Image Objects Manually and Cut an Object Manually.While manual editing is not commonly used in automated image analysis, it can be applied to highlight or reclassify certain objects or to quickly improve the analysis result without adjusting the applied rule set.To open the Manual Editing toolbar choose View > Toolbars > Manual Editing on the main menu.Change Editing ModeThe Change Editing Mode drop-down list on the Manual Editing toolbar is set to Image Object Editing by default. If you work with thematic layers and want to edit them by hand, choose Thematic editing from the drop-down list.Selection ToolsObjects to be fused or classified can be selected from the Manual Editing toolbar in one of the following ways:1 Single Selection Mode selects one object. Select the object with a single click.2 Polygon Selection selects all objects that lie within or touch the border of a polygon.Set vertices of the polygon with a single click. Right-click and choose Close Polygon to close the polygon.3 Line Selection selects all objects along a line. Set vertices of the line with a singleclick. A line can also be closed to form a polygon by right-clicking and choosing Close Polygon. All objects that touch the line are selected.4 Rectangle Selection selects all objects within or touching the border of a rectangle.Drag a rectangle to select the image objects.Merge Objects ManuallyThe manual editing tool Merge Objects is used to manually merge selectedneighboring image or thematic objects.Note: Manual object merging operates only on the current image object level.Tools > Manual Editing > Merge Objects from the main menu bar or press the Merge Objects Manually button on the Manual Editing toolbar to activate the input mode. Or you can use right click.Note: You should have at list two objects.2.9 Classify Image Objects ManuallyThe manual editing tool Classify Image Objects allows easy class assignment of selected image objects.Manual image object classification can be used for the following purposes:• Manual correction of previous classification results including classification ofpreviously unclassified objects.• Classification without rule sets (in case the creation of an appropriate rule set ismore time-consuming), using the initial segmentation run for automated digitizing.Precondition: To classify image objects manually, the project has to contain at leastone image object level and one class in the Class Hierarchy.To perform a manual classification, do one of the following:• Choose Tools > Manual Editing > Classify Image Objects from the menu bar.• Click the Classify Image Objects button on the Manual Editing toolbar to activatethe manual classification input mode.In the Select Class for Manual Classification drop-down listbox, select the class to which you want to manually assignobjects. Note that selecting a class in the Legend window or inthe Class Hierarchy window (if available) will not determine theclass for manual editing; the class has to be selected from thebefore-mentioned drop-down list.Now objects can be classified manually with a single mouse-click. To classify objects, do one of the following:• Select the Classify Image Objects button and the Class for ManualClassification. Click the image objects to be classified.• Select the image object(s) you want to classify first. Select the Class for Manual Classification and press the Classify Image Objects button to classify all selected objects.• Select one or more image objects, right-click into the image object(s) and select Classify Selection from the context menu.When the object is classified, it is painted in the color of the respective class.If no class is selected, a mouse-click deletes the previous class assignment; the image object becomes unclassified.To undo a manual classification on a previously unclassified object, simply click the object a second time. If the object was previously classified, then clicking again does not restore the former classification; instead, the object becomes unclassified.。
基于多项Logit模型的土地覆被分层分类方法研究

第33卷第11期2008年11月武汉大学学报·信息科学版Geo matics and Informa tion Science of W uhan U niver sityVo l .33N o .11No v .2008收稿日期:2008-09-25。
项目来源:国家973计划资助项目(2007C B714402)。
文章编号:1671-8860(2008)11-1166-04文献标志码:A基于多项Logit 模型的土地覆被分层分类方法研究饶 雄1 张景雄1,2 丁翼星1(1 武汉大学遥感信息工程学院,武汉市珞喻路129号,430079)(2 武汉大学测绘遥感信息工程国家重点实验室,武汉市珞喻路129号,430079)摘 要:探讨了一种利用多项Lo git 模型分层提取土地覆盖专题信息的方法。
考虑客观存在的异物同谱现象,构建分层分类体系,针对不同层的地物类别选取不同的预测变量构建多项L ogit 模型,分步骤地提取各地物类专题信息。
将此方法应用于美国蒙大拿州中部地区的土地覆盖专题信息提取,结果表明,该方法较常规的使用同一组特征变量构建单一模型一次性地划分所有地物类的方法在总体分类精度上有了明显改善。
关键词:多项Log it 模型;逐步回归;分层分类中图法分类号:P237.4;T P753 常规的遥感分类一般采用一次性分类的策略,在同一分类体系方案下,利用单一的分类标准仅通过一次分类过程提取所有地物类的专题信息。
但是,由于客观世界的复杂性和遥感影像本身的空间分辨率以及“同物异谱”和“异物同谱”现象的客观存在,在遥感影像分类过程中,某一特征组合可能只能较好地识别部分目标地物类别,而很难甚至不可能适合识别所有地物,按照同一分类标准对影像进行分类往往很难达到令人满意的分类效果[1]。
如果仍然采用这种分类策略,会因某些地物类别的分类精度不高而导致整体分类精度降低。
随着地学空间分析理论的不断丰富与完善,空间回归技术作为空间分析的重要工具被广泛地应用于地学领域的各个分支。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
其他分割算法
四、基本操作与设置演示
eCognition 中的分割算法
棋盘分割:最快的分割算法,但对感兴趣对象的特征描述并 不有效。分割产生相同大小的对象。 四叉树分割:四叉树分割速度很快,可以产生多种尺度大小 的对象。直接产生的对象没什么意义,但对后续光谱差异分割
和多尺度分割区域生长算法有用。 对比分裂分割 多尺度分割:用得最多、最有效、速度最慢的一种分割方式。 光谱差异分割:影像对象域只能为对象。 多阙值分割:当需要基于绝对的像素值进行分割时使用这个 算法。 对比过滤分割
四、基本操作与设置演示
自动命名的规则
上述例子命名解释: 将影像采用棋盘分割方法,按照每个对象100*100像 素进行分割,其中一个专题层参与运算。
算法(Algorithm):
从下拉菜单中选择您想要进行的算法,依据所选 择的算法,在编辑对话框右侧部分的规则集合设置的 算法参数也将发生变化并显示。
默认情况下通常最常使用的算法是可以应用的, 选择其它的算法时可以通过下拉选项和滑动条进行选 择,在最下端的select more里可以选择更多算法,添 加可利用的算法到算法名单中。
基本分类方法
四、基本操作与设置演示
• 基于规则的分类方法: (1)最邻近分类器:
在声明每个类的样本对象后,每个影像对象都赋为特征空间中最邻近样本所代表的类中。 (2)隶属度函数分类器:
可以精确定义对象属于某一类的标准 ,是基于一个特征的。如果一个类仅通过一个特征或者只 用少数的特征就能和其它类区分,则可使用隶属度函数 。 • 基于分类器分类方法: (1)决策树算法 (2)随机森林算法 (3)贝叶斯算法 (4)支持向量机算法 (5)K最近邻算法
– SPOT5、IKONOS、QuickBird、WorldViewⅠ-Ⅱ、GeoEye-1、无人机 – 高分辨率遥感影像广泛应用于土地利用、森林资源监测与调查、土地整理监
测
• 传统目视判读或是基于像素(pixel based)分类方式获得的 结果与地理数据库难以整合,且信息提取的精度和效率不能 兼顾。
基于对象土地覆被分类
一、产生背景
常见的遥感图像分类方法:
1. 人工目视解译 2. 计算机自动分类
精度高、速度慢 解译人员要求高
基于像素分类
逯军锋主讲
精度低、速度快 变化监测是伪变化多
基于对象分类
精度高、速度相对快
一、产生背景
• 高分辨率遥感影像(high-resolution remote sensing imagery )的大量出现与广泛应用
线选
并
过 滤
对
类
象
Google earth Engion
二、工作流程
基于易康软件工作土地分类工作流程
三、基本概念
影像对象:按照局部区域的不同特征进行分割,所分割出来独立的结 果就叫影像对象。每个影像对象代表影像的一个确定空间连续的区域。 影像区域的像素与影像对象关系是部分关联。
对像层: 对象层是由易康(eCognition)软件分割的多个影像对象组 成,而多个影像对象可以按照一定的尺度参数合并或分割成分别由上 下组成的一个新的对象层。
输出文件名称
选择要导出类的相 关特征 注:要导出类名, 必须添加此特征, 无需改任何参数
规则集
五、基于已有样本的自动分类(示例)
创建对象
基于shp创建类别和样本
样本颜色赋值 基于随机森林算法
合并图斑
规则集
六、Manual Editing Toolbar的使用
分类
多
边
分
对
形
割
象
选
对
分
择
象
类
单选 框选 合
常用特征参数
四、基本操作与设置演示
纹理特征
灰度共生矩阵(grey level co-occurrence matrix, GLCM),通过对影像灰度 级之间的二阶联合条件概率密度P(i,j,d,st)来表示影像的纹理。P(i, j,d,st)表示在 给定空间距离d和空间方向st,以灰度级i为始点,终点出现灰度j出现的概率。
常用特征参数
四、基本操作与设置演示
如图所示,特征窗口常用的对象特征
常用特征参数
四、基本操作与设置演示
光谱特征
• 亮度 • 最大均值 • 最小均值 • 最大均值差 • 均值 • 标准差 • 最大像素值 • 最小像素值
– 对象比率 – Mean Diff. to neighbors – Mean Diff. to neighbors(abs) – Mean Diff. to brighter neighbors() – Mean Diff. to darker neighbors
分类后处理 • 小图斑处理:
四、基本操作与设置演示
• 邻斑的合并:
精度评价
四、基本操作与设置演示
分类的精度,一般两种方 法,实地调查;高分辨率 的影像检验低分辨率影像 的分类。
在eCognition中的精 度评价也是基于测 试样本进行的。这 就要求在较客观的 情况下(一般要求 有其他数据支持), 为每一类选取精度 评价样本。
常用特征参数
四、基本操作与设置演示
形状特征 • 表现对象大小的有:面积、周长、等价直径、长度、宽度、String length、
String width; • 表现对象的细长程度的有:长宽比、细长度; • 表现对象的边界复杂度、紧凑性的有:形状指数(即分形维数); • 表现对象与圆的接近程度的有:球状指数; • 表现对象与最小外接矩形的接近程度的有:扩展度(矩形度); • 如果对象为椭圆形,表现对象的椭圆形状的有:离心率、扁率; • 其他:主轴方向
常用算法
四、基本操作与设置演示
算法 作用域
关键参数
对象层 分割参数设置
Drăguţ, L., Csillik, O., Eisank, C., Tiede, D., 2014. Automated
最优尺度设置插件Estimation of Scale Parameters。 parameterisation for multi-scale image segmentation on multiple layers. ISPRS Journal of Photogrammetry and Remote Sensing 88, 119-127.
打开方式: File菜单→New Project 或从工具栏点击
注:如果在新建工程
时,有信息需要添加 或者修改,选择
File→Modify Open project。所有路径 为全英文路径
每个波段作为一个图层 专题图层(辅助分类图层) 元数据
输入工程名
是否使用 地理编码
添加图层 移除图层 编辑图层
添加图层 移除图层 编辑图层
注:分类时要选好分类的地区影像,一般要求要有地面数据支持,也就是说要知道你待分类的 影像的地物类别,这样在你的分类完成后才可能评价你的分类精度,分类精度的评价一般是用 混淆矩阵来评价,从混淆矩阵中算出总精度和Kappa系数就可作为分类精度了。
结果导出
四、基本操作与设置演示
输出类型
输出图层
选择要导出的类
调整视图设置
四、基本操作与设置演示
根据解译者习惯及解译不同地物的波段组合显示图层
常用窗口
四、基本操作与设置演示
View|→Wind ows
进程树窗口
类层次窗口
样本编辑窗口
影像对象特征显 示窗口(可选择)
特征窗口 特征值域
单一规则设置
四、基本操作与设置演示
算法 对象域
循Hale Waihona Puke 次数算法参数单一规则设置
– “椒盐”现象,分类结果不易矢量化 – 分类利用的高分影像信息有限,导致分类精度不高
• eCongnition软件的问世、计算机及网络技术的飞速发展。
一、产生背景
• 基于对象影像分析常用软件平台。
1. ENVI FX (面向对象空间特征提取模块—Feature Extraction) 2. ERDAS Objective模块 3. PCI FeatureObjeX 4. ArcMap Segmentation and Classification 5. eCognition软件
影像分割:根据影像的部分特征将一幅图像分成若干“有意义”的互 不交叠的区域,使得这些特征在某一区域内表现一致或相似,而在不 同区域间表现出明显的不同。
特征:目标对象的相关信息的表述。
新建工程
四、基本操作与设置演示
快速制图模式
自设定规则模式
影像相关信息(参考坐标系统、像素数、 分辨率、影像坐标范围)