数据仓库与数据挖掘第六章 数据挖掘算法

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
• TPR = TP /(TP + FN )
• FPR = FP /(FP + TN )
分类算法及评估指标
• 对于二值分类问题,二元分类器输出的是对正样本的一个分类概率值, 通过设定一个阈值可以将实例分类到正类或者负类(例如大于阈值划 分为正类) • 如果阈值发生变化,就需要用不同的阈值进行分类,根据分类结果计 算得到ROC空间中相应的点,连接这些点就形成ROC 曲线。
• ROC曲线经过(0, 0) (1, 1),一般情况下, 这个曲线都应该处于(0, 0)和(1, 1)连线的上方
分类算法及评估指标
• AUC(Area Under roc Curve)的值就是处于ROC curve下方的那部分 面积的大小,用来衡量分类器的好坏。
• 通常,AUC的值介于0.5到1.0之间,较大的AUC代表了较好的分类器 性能。 • 在TPR随着FPR递增的情况下,TPR增长得越快,曲线越往上凸,AUC 就越大,模型的分类性能就越好。当正负样本不平衡时,这种模型评 价方式比起一般的精确度评价方式的有明显的优势。
• 常见交叉验证的方法包括
• 1. Hold-Out Method • 2. K-fold Cross Validation
• 3. Leave-One-Out Cross Validation
聚类算法及其评价指标
聚类过程包括以下步骤
• • • • • 数据准备 特征选择 特征提取. 聚类 聚类结果评估
分类算法及评估指标
• 分类模型的误差包括训练误差和泛化误差两种。
• 训练误差是在训练集中错误分类样本的比率 • 泛化误差是模型在未知记录上的期望误差,训练数据中推导出的模型 能够适用于新数据的能力
• 一个好的分类模型应该具有低的训练误差和泛化误差,评估分类模型 的性能主要是估计其泛化误差
分类算法及评估指标
• 外部度量假设聚类算法的结果是基于一种人工预先指定的结构。这种 结构反映了人们对数据集聚类结构的直观认识。每个数据项的进行了 人工标注,聚类结果与人工判断越吻合越好。
• 外部评判法的常用指标包括:
• F-measure
• 划分之间的比较指标Rand 指数和Jaccard 系数(coefficient)
决策树算法
• 决策树的缺点在于决策树属于贪心算法,只能局部最优,其次对于何 时停止剪枝需要有较准的把握。
• 决策树的应用是通过未分类实例的属性与决策树ຫໍສະໝຸດ Baidu较,实现对未分类 实例的类别判定。
信息论基础知识
• 决策树是利用信息论原理对大量样本的属性进行分析和归纳而产生的, 本节主要介绍决策树中用到的信息论基础知识。 • 1)信息量 • 2)熵 • 3)分类集合信息量 • 4)信息增益度
聚类算法及其评价指标
• F-measure:采用信息检索的准确率和查全率思想。
• 数据所属的类t看作是集合Nt中等待查询的项 • 由算法产生的簇Ck看作是集合Nk中检索到的项Ntk是簇Ck中类t的 数量
聚类算法及其评价指标
聚类算法及其评价指标
聚类算法及其评价指标
聚类算法及其评价指标
聚类算法及其评价指标
聚类算法及其评价指标
聚类分析计算方法主要包括
• 分裂法(partitioning methods) • 层次法(hierarchical methods) • 基于密度的方法(density-based methods) • 基于网格的方法(grid-basedmethods)
聚类算法及其评价指标
6.2C4.5算法
决策树算法
• 决策树是一种由节点和有向边组成的层次结构,如下图所示,树中包 含三种节点
• 根节点(root node) • 内部节点(internal node) • 叶节点(leaf node)
决策树算法
• 决策树算法的生成过程包括: 树构造(Tree Building)、树剪枝(Tree Pruning)。 • (1)树构造阶段决策树采用自顶向下的递归方式从根节点开始在每个 节点上按照给定标准选择测试属性,然后按照相应属性的所有可能取 值向下建立分枝、划分训练样本,直到一个节点上的所有样本都被划 分到同一个类,或者某一节点中的样本数量低于给定值时为止。 • (2)树剪枝阶段。构造过程得到的并不是最简单、紧凑的决策树,因 为许多分枝反映的可能是训练数据中的噪声或孤立点。树剪枝过程主 要检测和去掉这种分枝,以提高对未知数据集进行分类时的准确性。
• 聚类评价包括聚类过程(clustering)评价和聚类结果(cluster)评 价两个方面
• 前者主要考察聚类操作(或者说聚类算法)的属性,而后者只需要考 虑给定的聚类结果是否合理、有效。 • 一般常见的聚类结果评价(聚类评价指标)大致可分为外部度量、内 部度量、相对度量三大类。
聚类算法及其评价指标
分类算法及评估指标
• ROC( Receiver Operating Characteristic)接收者操作特征曲线, 又被称为ROC曲线,来源于信号检测领域,可用于比较两个分类器的 性能。ROC曲线关注两个指标TPR (true positive rate )和FPR (false positive rate)。
6.1算法评估概述
分类算法及评估指标
对于分类算法,主要从以下几个方面进行评价:
• 预测的准确率
• 速度
• 强壮性 • 可伸缩性 • 可解释性
分类算法及评估指标
• 分类评价中的常用术语如下表所示
分类算法及评估指标
分类算法的评价指标包括 • 正确率(accuracy) • 错误率(error rate) • 灵敏度(sensitive) • 特效度(specificity) • 精度(precision) • 召回率(recall) • 其他评价指标。ROC曲线和AUC(曲线包围面积)
决策树算法
决策树算法应用广泛,其独特的优点包括: • 是一种非参数方法,不要求任何先验假设,不假定类和其他属性服从 一定的概率分布。 • 决策树的训练时间相对较少,即使训练集很大,也可以快速地构建分 类模型。 • 决策树的分类模型是树状结构,简单直观,符合人类的理解方式。 • 可以将决策树中到达每个叶节点的路径转换为IF—THEN 形式的分类 规则,这种形式更有利于理解。 • 对于噪声的干扰具有较好的鲁棒性。
相关文档
最新文档