粗糙集
合集下载
相关主题
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
• 这样加上R1属性对A构成的划分分 别为: A/R1={X1,X2,X3}={{x1,x2,x6},{x3,x 4},{x5,x7,x8}} (颜色分类) A/R2={Y1,Y2,Y3}={{x1,x2},{x5,x8}, {x3,x4,x6,x7}} (形状分类) A/R3={Z1,Z2,Z3}={{x1,x2,x5},{x6,x 8},{x3,x4,x7}} (大小分类)
2014-5-16 26
• 3.缺失值的处理问题 • 我们在具体处理某些问题时由于各种各样的原 因 常 常 会 碰 到数据不完整即丢失数据的现象 由于经典粗糙集理论只能处理具有完备数据的 信息系统因此我们必须对丢失的数据做某种处 理 • 4.对连续数据进行离散化处理的问题 • 现实生活中遇到的数据往往是连续型的而粗糙 集只能对离散化数 据 进 行 处 理 所 以怎样把 连续型的数据进行离散化的研究显得非常重要
2014-5-16 23
研究现状分析
曾黄麟. 粗集理论及其应用(修订版). 重庆: 重庆大学出版社, 1998 刘清. Rough Set及Rough推理. 北京: 科学出版社, 2001 张文修等. Rough Set理论与方法. 北京: 科学出版社, 2001 王国胤. Rough Set理论与知识获取. 西安: 西安交通大学出版 社, 2001 史忠植. 知识发现. 北京: 清华大学出版社, 2002 苗夺谦//王国胤//刘清//林早阳//姚一 豫. 粒计算--过去现在与 展望. 科学出版社, 2007
2014-5-16 2
一个数据库中的二维表如下
• 元素 颜色 形状 大小 稳定性
x1 x2 x3 X4 x5 x6 x7 x8
2014-5-16
红 红 黄 黄 蓝 红 蓝 蓝
三角 三角 圆 圆 方块 圆 圆 方块
大 大 小 小 大 中 小 中
稳定 稳定 不稳定 不稳定 稳定 不稳定 不稳定 不稳定
• 1996~1999年,分别在日本、美国、美 国、日本召开了第4-7届粗糙集理论国际 研讨会。
2014-5-16
21
研究现状分析
2001年5月在重庆召开了“第1届中国Rough集与软计 算学术研讨会”,邀请了创始人Z. Pawlak教授做大 会报告; 2002年10月在苏州第2届中国粗糙集与软计算学术研讨会 2003年5月在重庆 第3届中国粗糙集与软计算学术研讨会
2014-5-16 9
• 于是我们选择了“兰色的大方块或者兰 色的小圆形”这个概念:{x5,x7}作为X 的下近似。选择“三角形或者兰色 的”{x1,x2,x5,x7,x8}作为它的上近似, 值得注意的是,下近似集是在那些所有 的包含于X的知识库中的集合中求并得到 的,而上近似则是将那些包含X的知识库 中的集合求并得到的。
2014-5-16 8
• 下面考虑近似这个概念。假设给定了一 个A上的子集合X={x2,x5,x7},那么用我 们的知识库中的知识应该怎样描述它呢? 红色的三角?****的大圆?都不是,无 论是单属性知识还是由几个知识进行交、 并运算合成的知识,都不能得到这个新 的集合X,于是 我们只好用我们已有的 知识去近似它。也就是在所有的现有知 识里面找出跟他最像的两个一个作为下 近似,一个作为上近似。
研究现状分析
2007年粗糙集与软计算、Web智能、粒计算联合学术 会议, 山西大学 2008年第8届中国粗糙集与软计算学术会议、第2届 中国Web智能学术研讨会、第2届中国粒计算学术研 讨会联合学术会议(CRSSC-CWI-CGrC2008), 河南 师范大学 中科院计算所、中科院自动化所、重庆邮电学院、 南昌大学、西安交通大学、山西大学、合肥工业大 学、北京工业大学 、上海大学
2014-5-16
11
• 下面考虑是否所有的基本知识:颜色、 形状、大小都是必要的?如果我们把这 个集合在知识系统中去掉颜色这个基本 知识,那么知识系统变成 • A/(RR1)={{x1,x2},{x3,x4,x7},{x5},{x6},{x8}} 以及这些子集的并集。如果用这个新的 知识系统表达“稳定”概念得到上下近 似仍旧都是:{x1,x2,x5},“不稳定”概 念的上下近似也还是{x3,x4,x6,x7,x8}, 由此看出去掉颜色属性我们表达稳定性 的知识不会有变化,所以说颜色属性是 多余的可以删除。
2004年10月中下旬在浙江舟山召开第4届中国粗糙集与软计算 学术研讨会 2004年,在瑞典召开RSCTC国际会议(年会) 。 2005年,在加拿大召开RSFDGrC国际会议(年会)。 2005年8月1日至5日在鞍山科技大学召开第五届中国Rough集 与软计算学术研讨会(CRSSC2005) 2014-5-16 22 2006 第六届中国粗糙集与软计算学术研讨会在 浙江师范大学
2014-5-16 13
• 最后我们得到化简后的知识库R2,R3,从而能 得到下面的决策规则:大三角->稳定,大方块>稳定,小圆->不稳定,中圆->不稳定,中方块 ->不稳定,利用粗集的理论还可以对这些规则 进一步化简得到:大->稳定,圆->不稳定,中 方块->不稳定。这就是上面这个数据表所包含 的真正有用的知识,而这些知识都是从数据库 有粗糙集方法自动学习得到的。因此,粗糙集 是数据库中数据挖掘的有效方法。
2014-5-16 25
粗糙集理论及应用的研究热点
• 粗糙集研究的热点主要有: • 1.大数据集问题 • 在现实中许多实现问题所协及到的数据往往很多, 因 此 运 算 和处理的工作量会越来越大 因此我们必须要寻 找到一种快速 高 效 的算法和处理方法 来提高对数据的 处理和运算的效率 • 2.高效的约简算法 • 实现问题所协及到的属性越来越多 ,而在大量的属性 中 并不是所有的属性都是同等重要的,因 此如何快速 而高效地获得影响问题的最重要的属性是非常重要的
2014-5-16
19
粗糙集的研究
1991年波兰Pawlak教授的第一本关于粗 糙集的专著《Rough Sets:Theoretical Aspects of Reasoning about Data 》和 1992年R.Slowinski主编的关于粗糙集应用 及其与相关方法比较研究的论文集的出版, 推动了国际上对粗糙集理论与应用的深入研 究。1992年在波兰Kiekrz召开了第1届国际 粗糙集讨论会。从此每年召开一次与粗糙集 理论为主题的国际研讨会。1995年,Pawlak 等人在《ACM Communications》上发表 “Rough sets”,极大地扩大了该理论的国际 20 2014-5-16 影响。
2014-5-16
17
模糊集
1965年,Zadeh提出了模糊集,不少理 论计算机科学家和逻辑学家试图通过这一理 论解决G.Frege的含糊概念,但模糊集理论 采用隶属度函数来处理模糊性,而基本的隶 属度是凭经验或者由领域专家给出,所以具 有相当的主观性。
2014-5-16
18
粗糙集的提出
20世纪80年代初,波兰的Pawlak针对 G.Frege的边界线区域思想提出了粗糙集 (Rough Set)﹐他把那些无法确认的个体 都归属于边界线区域,而这种边界线区域被 定义为上近似集和下近似集之差集。由于它 有确定的数学公式描述,完全由数据决定, 所以更有客观性 。
• 上面这些所有的分类合在一 起就形成了一个基本的知识 库
2014-5-16
7
• 那么这个基本知识库能表示什么概念呢?除 了红的{x1,x2,x6}、大的{x1,x2,x5}、三角形的 {x1,x2}这样的概念以外还可以表达例如大的 且是三角形的{x1,x2,x5}∩{x1,x2}={x1,x2}, 蓝色的小的圆形 ({x5,x7,x8}∩{x3,x4,x7}∩{x3,x4,x6,x7}={x7}而 类似这样的概念可以通过求交运算得到,比 如X1与Y1的交就表示红色的三角。所有的这 些能够用交、并表示的概念以及加上上面的 三个基本知识(A/R1,A/R2.A/R3)一起就构成了 一个知识系统记为R=R1∩R2∩R3,它所决定 的所有知识是 A/R={{x1,x2},{x3},{x4},{x5},{x6},{x7},{x8}} 以及A/R中集合的并。
2014-5-16
10
• 下面我们考虑,对于决策属性来说是否 所有的条件属性都是有用的呢?考虑所 有决策属性是“稳定”的集合 {x1,x2,x5}, 它在知识系统A/R中的上下近似都是 {x1,x2,x5}本身,“不稳定”的集合 {x3,x4,x6,x7,x8},在知识系统A/R中的上 下近似也都是{x3,x4,x6,x7,x8}它本身。 说明该知识库能够对这个概念进行很好 的描述。
2014-5-16 15
内容提要
一、概述 二、知识分类 三、知识的约简 四、决策表的约简 五、粗糙集的扩展模型 六、粗糙集的实验系统 七、粒度计算简介
2014-5-16 16
一、 概述
现实生活中有许多含糊现象并不能简单 地用真、假值来表示﹐如何表示和处理这些 现象就成为一个研究领域。早在1904年谓词 逻辑的创始人G.Frege就提出了含糊(Vague) 一词,他把它归结到边界线上,也就是说在 全域上存在一些个体既不能在其某个子集上 分类,也不能在该子集的补集上分类。
2014-5-16 5
• 按照颜色这个属性我们就把积木集 合A进行了一个划分,那么我们就说 颜色属性就是一种知识。在这个例 子中我们不难看到,一种对集合A的 划分就对应着关于A中元素的一个知 识,假如还有其他的属性,比如还 有形状R2={三角,方块,圆形},大小 R3={大,中,小}
2014-5-16 6
2014-5-16 12
• 如果再考虑是否能去掉大小属性呢?这个时候 知识系统就变为: A/(R-R1R3)=A/R2={{x1,x2},{x5,x8},{x3,x4,x6,x7}}。 同样考虑“稳定”在知识系统A/R2中的上下近 似分别为:{x1,x2}和{x1,x2,x5,x8},已经和原 来知识系统中的上下近似不一样了,同样考虑 “不稳定”的近似表示也变化了,所以删除属 性“大小”是对知识表示有影响的故而不能去 掉。同样的讨论对于“形状”属性也一样,它 是不能去掉的。
3
2014-5-16
4
• 假设有8个积木构成了一个集合A, 我们记: A={x1,x2,x3,x4,x5,x6,x7,x8},每个 积木都有颜色属性,按照颜色的不 同,我们能够把这堆积木分成 R1={红,黄,蓝}三个大类, • 那么所有红颜色的积木构成集合 X1={x1,x2,x6},黄颜色的积木构成 集合X2={x3,x4},蓝颜色的积木是: X3={x5,x7,x8}。
第二章知识工程
粗
糙
集
Set
Rough
2014-5-16
1
• 面对日益增长的数据库,人们将如 何从这些浩瀚的数据中找出有用的 知识?我们如何将所学到的知识去 粗取精?什么是对事物的粗线条描 述什么是细线条描述? 粗糙集合论 回答了上面的这些问题。要想了解 粗糙集合论的思想,我们先要了解 一下什么叫做知识?
2014-5-16 14
• 从上面这个例子中我们不难看出,实际 上我们只要把这个数据库输入进粗糙集 运算系统,而不用提供任何先验的知识, 粗糙集算法就能自动学习出知识来,这 正是它能够广泛应用的根源所在。而在 模糊集、可拓集等集合论中我们还要事 先给定隶属函数。 目前,粗糙集理论已 经广泛的应用于知识发现、数据挖掘、 智能决策、电子控制等多个领域
2014-5-16
24
ຫໍສະໝຸດ Baidu
• 目前,国际上已经开发出了一些应用粗糙集的 实用软件。加拿大 Reduct SystemInc.公司开发 的用于数据库知识发现的软件 DataLogic R 是 用 C 语言开发的, 可安装在个人计算机上, 为科 研领域和工业界服务。美国肯萨斯大学开发了 一套基于粗糙集的经验学习系统,名为 LERS (Learning from Examples based on Rough Sets), • 它能从大量经验数据中提取出一定的规则。此 外还有波兰工业大学的 Rose 和挪威的 Rough Enough。