Libsvm分类实验报告

合集下载

svm实验报告总结

svm实验报告总结

svm实验报告总结SVM实验报告总结支持向量机(SVM)是一种常用的机器学习算法,它在模式识别、分类、回归等领域有着广泛的应用。

本文将对SVM算法进行实验,旨在探究SVM算法的原理、应用和优缺点。

一、实验原理SVM的基本思想是将低维度的数据映射到高维度的空间中,从而使数据在高维空间中更容易被线性分隔。

SVM算法的核心是支持向量,这些支持向量是距离分类决策边界最近的数据点。

SVM通过找到这些支持向量来建立分类器,从而实现数据分类。

二、实验步骤1. 数据预处理本实验使用的数据集是Iris花卉数据集,该数据集包含了三种不同种类的花朵,每种花朵有四个属性:花萼长度、花萼宽度、花瓣长度、花瓣宽度。

首先需要将数据集划分为训练集和测试集,以便在训练模型时进行验证。

2. 模型训练本实验使用Python中的sklearn库来构建SVM分类器。

首先需要选择SVM的核函数,有线性核函数、多项式核函数、径向基核函数等。

在本实验中,我们选择径向基核函数作为SVM的核函数。

接着需要设置SVM的参数,包括C值和gamma值。

C值是惩罚系数,用于平衡模型的分类精度和泛化能力;gamma值是径向基函数的系数,用于控制支持向量的影响范围。

3. 模型评估本实验使用准确率和混淆矩阵来评估模型的性能。

准确率是指模型在测试集上的分类精度,而混淆矩阵则可以用来分析模型在不同类别上的分类情况。

三、实验结果本实验使用径向基核函数的SVM分类器在Iris数据集上进行了实验。

实验结果表明,SVM分类器的准确率达到了97.78%,同时在混淆矩阵中也可以看出模型在不同花朵种类上的分类情况。

实验结果表明,SVM分类器在分类问题上有着较好的表现。

四、实验总结SVM算法是一种常用的机器学习算法,它在模式识别、分类、回归等领域有着广泛的应用。

本实验通过对Iris数据集的实验,探究了SVM算法的原理、应用和优缺点。

实验结果表明,在SVM算法中,径向基核函数是一种比较适用的核函数,在设置SVM参数时需要平衡模型的分类精度和泛化能力。

最新LibSVM分类的实用指南

最新LibSVM分类的实用指南

L i b S V M分类的实用指南LibSVM分类的实用指南摘要SVM(support vector machine)是一项流行的分类技术。

然而,初学者由于不熟悉SVM,常常得不到满意的结果,原因在于丢失了一些简单但是非常必要的步骤。

在这篇文档中,我们给出了一个简单的操作流程,得到合理的结果。

(译者注:本文中大部分SVM实际指的是LibSVM)1入门知识SVM是一项非常实用的数据分类技术。

虽然SVM比起神经网络(Neural Networks)要相对容易一些,但对于不熟悉该方法的用户而言,开始阶段通常很难得到满意的结果。

这里,我们给出了一份指南,根据它可以得到合理结果。

需要注意,此指南不适用SVM的研究者,并且也不保证一定能够获得最高精度结果。

同时,我们也没有打算要解决有挑战性的或者非常复杂的问题。

我们的目的,仅在于给初学者提供快速获得可接受结果的秘诀。

虽然用户不是一定要深入理解SVM背后的理论,但为了后文解释操作过程,我们还是先给出必要的基础的介绍。

一项分类任务通常将数据划分成训练集和测试集。

训练集的每个实例,包含一个"目标值(target value)"(例如,分类标注)和一些"属性(attribute)"(例如,特征或者观测变量)。

SVM的目标是基于训练数据产出一个模型(model),用来预测只给出属性的测试数据的目标值。

给定一个训练集,"实例-标注"对,,支持向量机需要解决如下的优化问题:在这里,训练向量xi通过函数Φ被映射到一个更高维(甚至有可能无穷维)空间。

SVM在这个高维空间里寻找一个线性的最大间隔的超平面。

C 0是分错项的惩罚因子(penalty parameter of the error term)。

被称之为核函数(kernel function)。

新的核函数还在研究中,初学者可以在SVM书中找到如下四个最基本的核函数:(线性、多项式、径向基函数、S型)1.1实例表1是一些现实生活中的实例。

Libsvm分类实验报告

Libsvm分类实验报告

一、LIBSVM介绍LIBSVM是台湾大学林智仁(Chih-Jen Lin)副教授等开发设计的一个简单、易于使用和快速有效的SVM模式识别与回归的软件包,他不但提供了编译好的可在Windows系列系统的执行文件,还提供了源代码,方便改进、修改以及在其它操作系统上应用;该软件还有一个特点,就是对SVM所涉及的参数调节相对比较少,提供了很多的默认参数,利用这些默认参数就可以解决很多问题;并且提供了交互检验(Cross Validation)的功能。

二、准备工作2.1软件下载安装使用的平台是Windows XP,从命令列执行。

先把一些需要的东西装好,总共需要三个软件:libsvm, python, gnuplot。

这里我选择的版本是libsvm-2.88,python26。

Libsvm:到.tw/~cjlin/libsvm/下载libsvm,然后解压缩就好了。

Python:到/download/下载完直接安装就好了。

Gnuplot:下载ftp:///pub/gnuplot/gp400win32.zip解压缩。

这里全部解压安装在c盘c:\libsvm-2.88c:\python26c:\gnuplot2.2参数修改(1)把c:\libsvm-2.88\tools中的easy.py和grid.py复制到c:\libsvm-2.91\python中(2)在c:\libsvm-2.88\python中修改easy.py和grid.py的路径:①点中easy.py在右键中选Edit with IDLE打开,将else下面的路径修改如下:else:# example for windowssvmscale_exe = r"c:\libsvm-2.88\windows\svm-scale.exe"svmtrain_exe = r"c:\libsvm-2.88\windows\svm-train.exe"svmpredict_exe = r"c:\libsvm-2.88\windows\svm-predict.exe"gnuplot_exe = r"c:\gnuplot\bin\pgnuplot.exe"grid_py = r"c:\libsvm-2.88\python\grid.py"②点中grid.py在右键中选Edit with IDLE打开,将else下面的路径修改如下: else:# example for windowssvmtrain_exe = r"c:\libsvm-2.91\windows\svm-train.exe"gnuplot_exe = r"c:\gnuplot\bin\pgnuplot.exe"三、实验步骤(1)按照LIBSVM软件包所要求的格式准备数据集;(2)对数据进行缩放操作;(3)选用适当的核函数;(4)采用交叉验证选择惩罚系数C与g的最佳参数;(5)采用获得的最佳参数对整个训练集进行训练获取支持向量机模型;(6)利用获取的模型进行测试与预测。

支持向量机 libsvm python三分类问题实例

支持向量机 libsvm python三分类问题实例

2:EXCEL下的数据处理
Libsvm所需的数据格式应该是 <lable_value> <index1>:<value1> <index2>:<value2>.....。 (lable_value,index,value变量的值全部为数值型,lable_value表示样本的类 型,在二分类其中,其值一般取-1和1或者0和1,当然取其他值也是可以的,只要能 区分就行。index可以理解为遥感影像中的波段序列或者特征序列。value可以理解 为对应的像元值或者特征值)。 也就是类似于 1 1:0.302000 2:0.67200 2 1:0.568000 2:0.668000 3 1:0.568000 2:0.668000 这样的,如果你的数据不是这样,请下载FormatDataLibsvmaa.xlsm这个自带宏 命令的表格来转换,其中标签向量根据分类的类别自己定义
注意,正确率为零是因为在TESTD文件中所有数据标签为均4,而train数据的三个标 签为1,2,3,肯定都是对不上的(在SVM-PREDICT中你需要分类的数据必须给出 任意一个标签数据)。
在C:\libsvm-3.21\windows下调用SVM-TRAIN,输入优化后的参数,ibsvm-3.21\windows下调用SVM-PREDICT,按照用法输入,可以得出
输出的最后结果储存在OUT222这个文件中。
4)最重要的是GRID.py 设置好各项参数进行参数寻优(预设值就是RBF核函数) 具体数值区间我是采用的默认值 根据README里面的用法,同时调用GNUPLOT和SVMTRAIN两个地址,可以得 出.out和.png两个结果 最后可以得出一个最好的G C两个参数的数值

(完整word版)数据挖掘文本分类实验报告

(完整word版)数据挖掘文本分类实验报告

北京邮电大学****学年第1学期实验报告课程名称:数据仓库与数据挖掘实验名称: 文本的分类实验完成人:姓名:***学号:*&***姓名:** 学号:**日期:实验一:文本的分类1.实验目的◆掌握数据预处理的方法,对训练集数据进行预处理;◆掌握文本分类建模的方法,对语料库的文档进行建模;◆掌握分类算法的原理,基于有监督的机器学习方法,训练文本分类器;◆了解SVM机器学习方法,可以运用开源工具完成文本分类过程。

2.实验分工***:(1)对经过分词的文本进行特征提取并用lisvm进行训练(2)用训练的模型对测试数据进行预测***:(1)数据采集和预处理(2)分词3.实验环境Ubuntu 13.04+jdk1.74.主要设计思想4.1 实验工具介绍1.NLPIR_ICTCLAS2013NLPIR (又名ICTCLAS2013),是由中科院张华平博士倾力打造的汉语分词系统。

其主要功能包括中文分词、词性标注、命名实体识别、用户词典功能、支持GBK编码、UTF8编码、BIG5编码等.从NLPIR官网可以下载其最新版的Java发布包,然后导入Eclipse,配置运行环境,实现对于语料库的分词。

最新的NLPIR可以通过更改源代码实现新增新词识别、关键词提取、微博分词等功能,极大地方便了使用.2. Eclipse for JavaEclipse 是一个开放源代码的、基于Java的可扩展开发平台。

就其本身而言,它只是一个框架和一组服务,用于通过插件组件构建开发环境。

幸运的是,Eclipse 附带了一个标准的插件集,包括Java开发工具(Java Development Kit,JDK).3. LibSVM本次实验中我们采用的是台湾大学林智仁博士等开发设计的LIBSVM方法。

这是一个操作简单、易于使用、快速有效的通用SVM 软件包,可以解决分类问题(包括C−SVC 、ν−SVC ),回归问题(包括ε − SVR 、v− SVR )以及分布估计(one − class − SVM )等问题,提供了线性、多项式、径向基和S 形函数四种常用的核函数供选择,可以有效地解决多类问题、交叉验证选择参数、对不平衡样本加权、多类问题的概率估计等。

关于libsvm分类结果的可视化及分类曲线的可视化

关于libsvm分类结果的可视化及分类曲线的可视化

关于libsvm分类结果的可视化及分类曲线的可视化关于libsvvm分类结果的可视化及分类曲线的可视化by faruto论坛里曾有多位朋友询问过,有关libsvvm分类结果的可视化及分类曲线的可视化(可能大家感觉这个放在自己的paper里面会比较拉风,个人感觉可视化这些东西真的很虚幻,看着拉风,实则无用)。

整体过程我心中明了,但实在是对可视化这种东西的鄙视,所以一直未将关于libsvm分类结果的可视化及分类曲线的可视化的结果实现,并以插件函数的形式放在自己的faruto -libsvm工具箱里面。

本质其实就是用contour来实现。

今天下午把科学社会主义理论翘掉了【我还记得代课老师说让大家查看一下科学社会主义理论和空想社会主义的区别。

囧!】。

在宿舍搞了一下。

原本想法是要搞就搞高级一点的,想把对于任意维的测试数据的任意两维(或任意三维)进行可视化,并给出分类超曲面,但最终未果,无法实现。

【具体原因我就不说了,深入想过这个的应该会明的。

】【搞的我从下午一直搞到晚上六点,晚饭都没吃,就直接去上的《概率论的数学基础》课。

囧!】你别看代码就几行。

但里面的想法挺巧妙的。

所以,我在这里要说的是,下面的函数插件 svmplot.m 只对两分类,且属性数据是两维的,给出的分类结果的可视化及分类曲线的可视化才是有意义和准确的。

对于不是两分类或属性数据不是两维的,我这个也可以给出个图,但那个的没有实际意义!切记!!切记!!{近期还想弄的就是专门对于 un-balanced data的处理的函数插件。

!}测试图:代码:要的直接拿去【拿去在paper里面拉风吧!】。

放在libsvm -faruto版本里面就能直接用。

复制内容到剪贴板代码:function svmplot(labels,dataset,model,demension1,demension2)% svmplot by faruto% 2009.12.03%Email:*************************:516667408if nargin == 3demension1 = 1;demension2 = 2;end%%minX = min(dataset(:, demension1));maxX = max(dataset(:, demension1));minY = min(dataset(:, demension2));maxY = max(dataset(:, demension2));gridX = (maxX - minX) ./ 100;gridY = (maxY - minY) ./ 100;minX = minX - 10 * gridX;maxX = maxX + 10 * gridX;minY = minY - 10 * gridY;maxY = maxY + 10 * gridY;[bigX, bigY] = meshgrid(minX:gridX:maxX, minY:gridY:maxY);%%model.Parameters(1) = 3;ntest=size(bigX, 1) * size(bigX, 2);test_dataset=[reshape(bigX, ntest, 1), reshape(bigY, ntest, 1)]; test_label = zeros(size(test_dataset,1), 1);[Z, acc] = svmpredict(test_label, test_dataset, model);bigZ = reshape(Z, size(bigX, 1), size(bigX, 2));%%clf;hold on;grid on;ispos = ( labels == labels(1) );pos = find(ispos);neg = find(~ispos);h1 = plot(dataset(pos, demension1), dataset(pos, demension2), 'r+'); h2 = plot(dataset(neg, demension1), dataset(neg, demension2), 'g*'); h3 = plot( model.SVs(:,demension1),model.SVs(:,demension2),'o' ); legend([h1,h2,h3],'class1','class2','Support Vectors');[C,h] = contour(bigX, bigY, bigZ,-1:0.5:1);clabel(C,h,'Color','r');xlabel('demension1','FontSize',12);ylabel('demension2','FontSize',12);title('The visualization of classification','FontSize',12);代码的有一个小trick是参照了svmtoy 的思路。

【精编范文】svm算法实验实验报告-优秀word范文 (13页)

【精编范文】svm算法实验实验报告-优秀word范文 (13页)

本文部分内容来自网络整理,本司不为其真实性负责,如有异议或侵权请及时联系,本司将立即删除!== 本文为word格式,下载后可方便编辑和修改! ==svm算法实验实验报告篇一:SVM 实验报告SVM分类算法一、数据源说明1、数据源说远和理解:采用的实验数据源为第6组:The Insurance Company Benchmark (COIL 201X) TICDATA201X.txt: 这个数据集用来训练和检验预测模型,并且建立了一个5822个客户的记录的描述。

每个记录由86个属性组成,包含社会人口数据(属性1-43)和产品的所有关系(属性44-86 )。

社会人口数据是由派生邮政编码派生而来的,生活在具有相同邮政编码地区的所有客户都具有相同的社会人口属性。

第86个属性:“大篷车:家庭移动政策” ,是我们的目标变量。

共有5822条记录,根据要求,全部用来训练。

TICEVAL201X.txt: 这个数据集是需要预测( 4000个客户记录)的数据集。

它和TICDATA201X.txt它具有相同的格式,只是没有最后一列的目标记录。

我们只希望返回预测目标的列表集,所有数据集都用制表符进行分隔。

共有4003(自己加了三条数据),根据要求,用来做预测。

TICTGTS201X.txt:最终的目标评估数据。

这是一个实际情况下的目标数据,将与我们预测的结果进行校验。

我们的预测结果将放在result.txt文件中。

数据集理解:本实验任务可以理解为分类问题,即分为2类,也就是数据源的第86列,可以分为0、1两类。

我们首先需要对TICDATA201X.txt进行训练,生成model,再根据model进行预测。

2、数据清理代码中需要对数据集进行缩放的目的在于:A、避免一些特征值范围过大而另一些特征值范围过小;B、避免在训练时为了计算核函数而计算内积的时候引起数值计算的困难。

因此,通常将数据缩放到 [ -1,1] 或者是 [0,1] 之间。

svm 实验报告

svm 实验报告

svm 实验报告SVM 实验报告摘要:支持向量机(SVM)是一种常用的机器学习算法,广泛应用于模式识别、文本分类、图像识别等领域。

本实验旨在通过对SVM算法的实验研究,探讨其在不同数据集上的分类性能和泛化能力。

实验结果表明,在合适的参数设置下,SVM算法能够有效地对数据进行分类,并且在处理高维数据和小样本数据方面表现出优异的性能。

本文将详细介绍实验设计、实验数据、实验结果和分析讨论,旨在为读者提供对SVM算法的深入理解和应用指导。

1. 实验设计本实验选取了两个经典的数据集,分别是Iris数据集和MNIST手写数字数据集。

Iris数据集是一个经典的分类数据集,包含了150个样本,分为3类,每类有50个样本,每个样本有4个特征。

MNIST手写数字数据集是一个常用的图像分类数据集,包含了60000个训练样本和10000个测试样本,每个样本是一张28x28像素的手写数字图片。

在实验中,我们使用Python编程语言和Scikit-learn机器学习库进行实验。

对于Iris数据集,我们将数据集分为训练集和测试集,然后使用SVM算法进行训练和测试。

对于MNIST数据集,我们将数据集进行预处理,然后使用SVM算法进行训练和测试。

2. 实验数据在实验中,我们使用了Iris数据集和MNIST数据集作为实验数据。

Iris数据集是一个经典的分类数据集,包含了150个样本,分为3类,每类有50个样本,每个样本有4个特征。

MNIST手写数字数据集是一个常用的图像分类数据集,包含了60000个训练样本和10000个测试样本,每个样本是一张28x28像素的手写数字图片。

3. 实验结果在实验中,我们分别对Iris数据集和MNIST数据集进行了实验,得到了如下结果:对于Iris数据集,我们使用SVM算法进行分类,得到了如下结果:在训练集上的准确率为98%,在测试集上的准确率为96%。

对于MNIST数据集,我们使用SVM算法进行分类,得到了如下结果:在训练集上的准确率为98%,在测试集上的准确率为96%。

SVM多分类问题libsvm在matlab中的应用

SVM多分类问题libsvm在matlab中的应用

SVM多分类问题libsvm在matlab中的应⽤转载⾃对于⽀持向量机,其是⼀个⼆类分类器,但是对于多分类,SVM也可以实现。

主要⽅法就是训练多个⼆类分类器。

⼀、多分类⽅式1、⼀对所有(One-Versus-All OVA)给定m个类,需要训练m个⼆类分类器。

其中的分类器 i 是将 i 类数据设置为类1(正类),其它所有m-1个i类以外的类共同设置为类2(负类),这样,针对每⼀个类都需要训练⼀个⼆类分类器,最后,我们⼀共有 m 个分类器。

对于⼀个需要分类的数据 x,将使⽤投票的⽅式来确定x的类别。

⽐如分类器 i 对数据 x 进⾏预测,如果获得的是正类结果,就说明⽤分类器 i 对 x 进⾏分类的结果是: x 属于 i 类,那么,类i获得⼀票。

如果获得的是负类结果,那说明 x 属于 i 类以外的其他类,那么,除 i 以外的每个类都获得⼀票。

最后统计得票最多的类,将是x的类属性。

2、所有对所有(All-Versus-All AVA)给定m个类,对m个类中的每两个类都训练⼀个分类器,总共的⼆类分类器个数为 m(m-1)/2 .⽐如有三个类,1,2,3,那么需要有三个分类器,分别是针对:1和2类,1和3类,2和3类。

对于⼀个需要分类的数据x,它需要经过所有分类器的预测,也同样使⽤投票的⽅式来决定x最终的类属性。

但是,此⽅法与”⼀对所有”⽅法相⽐,需要的分类器较多,并且因为在分类预测时,可能存在多个类票数相同的情况,从⽽使得数据x属于多个类别,影响分类精度。

对于多分类在matlab中的实现来说,matlab⾃带的svm分类函数只能使⽤函数实现⼆分类,多分类问题不能直接解决,需要根据上⾯提到的多分类的⽅法,⾃⼰实现。

虽然matlab⾃带的函数不能直接解决多酚类问题,但是我们可以应⽤libsvm⼯具包。

libsvm⼯具包采⽤第⼆种“多对多”的⽅法来直接实现多分类,可以解决的分类问题(包括C- SVC、n - SVC )、回归问题(包括e - SVR、n - SVR )以及分布估计(one-class-SVM )等,并提供了线性、多项式、径向基和S形函数四种常⽤的核函数供选择。

初步体验libsvm用法3(matlab实例)

初步体验libsvm用法3(matlab实例)

初步体验libsvm⽤法3(matlab实例) 本次所讲的是libsvm在matlab中的2个应⽤实例,是本学期模式识别的2个编程作业题。

⼀、16棋盘格数据分类试验⽬的:产⽣16棋盘的训练数据,⽤svm训练出⼀个模型,然后对新来的样本进⾏分类预测。

试验说明:1. 训练数据样本数为1600个,即每个格⼦中随机产⽣100个数据点,分为2类,2种颜⾊分布在16个格⼦中,相交分布。

测试数据样本点数为320个,即每个格⼦中的数据点为20个。

2. 如果分类预测正确,则⽤绿⾊画出,预测错误,则⽤红⾊画出。

实验结果: 产⽣的训练样本分布图如下所⽰: 训练样本分布图如下: 预测结果如下(如果分类正确⽤绿⾊显⽰,否则⽤红⾊显⽰):实验结果评价指标: 最后的预测准确度,MSE等指标如下所⽰:实验源码即注释:%% 随机产⽣16棋盘格数据点作为训练样本,每个数据格100个样本%%样本数据放在checkerboard_16数组中train_num=100;num=0;for i=1:4for j=1:4num=num+1;yellowflag=mod(num+i,2);%d当redflag=1时,产⽣样本点⽤红⾊表⽰,否则⽤绿⾊表⽰,主要这⾥是num+i对2取模 x=randi([100*(i-1) 100*i],train_num,1); %产⽣100个横坐标y=randi([100*(j-1) 100*j],train_num,1); %产⽣100个列坐标if yellowflagz=randi([11],train_num,1);elsez=randi([00],train_num,1);endcheckerboard_16b(:,:,num)=[x y z];if num==1checkerboard_16=checkerboard_16b(:,:,num);elseif(num>1)checkerboard_16=[checkerboard_16;checkerboard_16b(:,:,num)];%递归调⽤时⼀定要⼩⼼endendend%% 画出产⽣的16棋盘样本训练数据分布⽰意图for k=1:1600if checkerboard_16(k,3)==1plot(checkerboard_16(k,2),checkerboard_16(k,1),'yo');elseplot(checkerboard_16(k,2),checkerboard_16(k,1),'go');endhold on %每次画完后要hold on,当然也可以使plot的2个参数为向量endtitle('训练数据分布');axis([-10420 -20420]);%% ⽤svm训练分类模型checkerboard_16_label=checkerboard_16(:,end);%取出样本类标签checkerboard_16_data=checkerboard_16(:,1:end-1);%取出样本属性model=svmtrain(checkerboard_16_label,checkerboard_16_data)%% 随机产⽣16棋盘格数据点作为训练样本,每个数据格100个样本%%样本数据放在checkerboard_16_test数组中train_num=20;num=0;for i=1:4for j=1:4num=num+1;redflag=mod(num+i,2);%d当redflag=1时,产⽣样本点⽤红⾊表⽰,否则⽤绿⾊表⽰x=randi([100*(i-1) 100*i],train_num,1); %产⽣100个横坐标y=randi([100*(j-1) 100*j],train_num,1); %产⽣100个列坐标if redflagz=randi([11],train_num,1);elsez=randi([00],train_num,1);endcheckerboard_16_test_b(:,:,num)=[x y z];if num==1checkerboard_16_test=checkerboard_16_test_b(:,:,num);elseif(num>1)checkerboard_16_test=[checkerboard_16_test;checkerboard_16_test_b(:,:,num)];%递归调⽤时⼀定要⼩⼼endendend%% 画出%% 画出产⽣的16棋盘样本测试数据分布⽰意图figure;for k=1:320if checkerboard_16_test(k,3)==1plot(checkerboard_16_test(k,2),checkerboard_16_test(k,1),'yo');elseplot(checkerboard_16_test(k,2),checkerboard_16_test(k,1),'go');endhold on %每次画完后要hold on,当然也可以使plot的2个参数为向量endtitle('测试原数据分布');axis([-10420 -20420]);%% ⽤svm进⾏预测checkerboard_16_test_label=checkerboard_16_test(:,end);checkerboard_16_test_data=checkerboard_16_test(:,1:end-1);[checkerboard_16_predict_label,checkerboard_16_accuarcy]=svmpredict(checkerboard_16_test_label,checkerboard_16_test_data,model)%% 画出预测数据样本点的分布,并将预测错误的点⽤红⾊标记出来,正确预测的⽤绿⾊标记出来figure;for k=1:320if checkerboard_16_predict_label(k)==1 && checkerboard_16_test_label(k)==1plot(checkerboard_16_test(k,2),checkerboard_16_test(k,1),'go');elseif checkerboard_16_predict_label(k)==0 && checkerboard_16_test_label(k)==0plot(checkerboard_16_test(k,2),checkerboard_16_test(k,1),'go');elseplot(checkerboard_16_test(k,2),checkerboard_16_test(k,1),'ro');endhold on %每次画完后要hold on,当然也可以使plot的2个参数为向量endtitle('分类预测数据分布');axis([-10420 -20420]);实验总结:由实验结果可知,预测准确度才65.9375%,⽐较低。

[转载]利用libsvm对遥感影像进行分类和预测(一)(二)原理与优势

[转载]利用libsvm对遥感影像进行分类和预测(一)(二)原理与优势

[转载]利⽤libsvm对遥感影像进⾏分类和预测(⼀)(⼆)原理与优势原⽂地址:利⽤libsvm对遥感影像进⾏分类和预测(⼀)(⼆)原理与优势作者:吉圈圈本篇博⽂主要介绍如何将ENVI/IDL与libsvm语⾔包相结合使⽤。

SVM是⼀个⾮常强⼤的算法,应⽤在遥感影像中,主要有分类和预测的作⽤。

本篇分为以下⼏个部分:(⼀)原理(⼆)优势(三)使⽤⽅法--------------------------------------------------------------------------(⼀)原理简单的介绍⼀下SVM,SVM简称Support Vector Machine。

SVM的出⽣发⽣在90年代,是⾃动化领域发展的⼀个黄⾦年代,两种绝世武功都在这个时候横空出世,他们分别是SVM和Boosted Trees。

SVM是⼀个将向量特征投射到⾼位空间的分类器。

有部分学者认为SVM可以克服维数灾难(curse of dimensionality)。

如果这样理解SVM的基本原理,我觉得还没有看到问题的本质。

因为这个看法不能解释下⾯的事实:SVM在⾼维空间⾥构建分类器后,为什么这个分类器不会对原空间的数据集Overfitting呢?要理解SVM的成功,我觉得可以考虑以下⼏个⽅⾯:第⼀,SVM 求解最优分类器的时候,使⽤了L2-norm regularization,这个是控制Overfitting的关键。

第⼆,SVM不需要显式地构建⾮线性映射,⽽是通过Kernel trick完成,这样⼤⼤提⾼运算效率。

第三,SVM的优化问题属于⼀个⼆次规划 (Quadratic programming) ,优化专家们为SVM这个特殊的优化问题设计了很多巧妙的解法,⽐如SMO (Sequential minimal optimization)解法。

第四,Vapnika的统计学习理论为SVM提供了很好的理论背景 (这点不能⽤来解释为什么SVM这么popular,因为由理论导出的bound太loose) 。

libsvm多分类

libsvm多分类

libsvm多分类关于使用libsvm进行分类的几个问题在使用libsvm进行分类时,碰到以下几个问题,求高手指点:(1)在进行多类分类时,由于libsvm用的是1-v-1方法,但是一般一个样本有很多属性,就拿葡萄酒的样本来说,它是一个三类问题,每个样本有13个属性,那么其训练预测过程是什么呢?训练过程是先对样本的同一属性使用1-v-1方法,进行训练,得到一组支持向量和相应模型,然后呢?其它的12个属性是怎么加入训练过程的?预测时,也是先对所有样本的第一个属性使用训练好的1-v-1模型进行投票决策,接下来呢?其他的12个属性也是使用同样的方法吗?最终的决策是怎样得出的?(2)有没有函数命令直接求得对每类的投票所得的票数?(3)在使用葡萄酒数据分类时,使用预测函数[predicted_label, accuracy, decision_values/prob_estimates] = svmpredict(test_label, test_matrix, model, ['libsvm_options']);,其中的decision_values/prob_estimates是决策函数f(x)=(w,x)+b的值吗?对于两分类问题,它是nx1维的矩阵,对于红酒的三类问题,它为什么是89x3维的矩阵?(4)对于葡萄酒数据,训练出的model是:Parameters: [5x1 double]nr_class: 3totalSV: 89rho: [3x1 double]Label: [3x1 double]ProbA: []ProbB: []nSV: [3x1 double]sv_coef: [89x2 double]SVs: [89x13 double]系数w,也就是model中的sv_coef怎么成了89x2 维的矩阵了,这个怎么理解?还有SVs到底代表什么?(5)如果想使用Platt模型p=1/(1+exp(Af+B)) 求模型的概率输出,其中的参数A和B怎么求得?[本帖最后由 xffxff 于 2010-4-28 11:24 编辑]SVM视频:。

Libsvm使用心得

Libsvm使用心得

Libsvm使用心得最近在做基于SVM的短信分类的项目,对libsvm的使用进行了小小研究,结合网上泛滥成灾的libsvm使用方法介绍,自己做一简短总结。

libsvm是实现svm的便捷开源工具,应用广泛(除此之外还有lightsvm,没用过)由国立台湾大学Chih-Chung Chang和Chih-Jen Lin编写,可以实现基于SVM的分类和回归。

由于个人对SVM的理论只是“略懂”,下面只介绍libsvm在win32平台的基本使用方法。

对SVM一窍不通的强烈建议看一下入门文章/~piaip/svm/svm_tutorial.html先介绍一下大概的流程。

准备数据集(短信语料),处理成libsvm接受的格式,之后进行训练(svm-train)得到模型,然后进行测试,完成。

其中训练的过程需要不断选取参数寻求最佳分类结果,为此libsvm 提供了grid.py(python文件)专门用来帮助自动选取最佳参数。

1、资源准备下载Libsvm、Python和Gnuplot:libsvm——那必须有啊,最新版本2.89,主页.tw/~cjlin/libsvm/上下载得到,建议同时下载一个libsvm的初学者guidePython——主要是为了运行grid.py,最新版是 2.5,可以在python的主页/上下载Gnuplot——同样为了选取最佳参数和绘图,自己搜一下,win32版的为gp423win32.zip 2、具体流程LIBSVM 使用的一般步骤是:1)准备数据集,转化为LIBSVM支持的数据格式:[label] [index1]:[value1] [index2]:[value2] ...即[l类别标号] [特征1]:[特征值] [特征2]:[特征值] ...2)对数据进行简单的缩放操作(scale);(为什么要scale,这里不解释了)3)考虑选用核函数(通常选取径函数,程序默认);4)采用交叉验证(一般采用5折交叉验证),选择最佳参数C与g ;5)用得到的最佳参数C与g 对整个训练集进行训练得到SVM模型;6)用得到的SVM模型进行测试3、操作实现:先进行各种安装和配置。

使用libsvm对MNIST数据集进行实验---浅显易懂!

使用libsvm对MNIST数据集进行实验---浅显易懂!

使⽤libsvm对MNIST数据集进⾏实验---浅显易懂!在学SVM中的实验环节,⽼师介绍了libsvm的使⽤。

当时看完之后感觉简单的说不出话来。

1. libsvm介绍虽然原理要求很⾼的数学知识等,但是libsvm中,完全就是⼀个⼯具包,拿来就能⽤。

当时问了好⼏遍⽼师,公司⾥做svm就是这么简单的?敲⼏个命令⾏就可以了。

貌似是这样的。

当然,在⼤数据化的背景下,还会有⽐如:并⾏SVM、多核函数SVM等情况的研究和应⽤。

实验环节⽼师给的数据很简单,也就1000个数据点,使⽤svm进⾏分类。

没有太多好说的。

于是⾃⼰想要试试做⼿写字体分类检测,类似于⾏车违章拍照后的车牌识别。

从⽹上搜到了数据集为MNIST数据集,是⼀个⼊门的基本数据集。

关于libsvm的介绍和使⽤参考:。

不过,svm-toy是最多⽀持三分类的,⽽不是只是⼆分类。

使⽤windows⽂件夹下的svm-train.exe,svm-predict.exe命令可以来进⾏建模和预测,具体参数看⽂档。

svm-train的主要可选参数有:-s 选择SVM类型。

⼀般选的是C-SVM-c 选择松弛变量的权重系数。

C越⼤,对松弛变量的惩罚越⼤,两个⽀持向量直线之间的间隔就越⼩,模型就越精确苛刻,对噪声数据点容忍⼩,越容易过拟合;C越⼩,两个⽀持向量直线之间的距离越⼤,对噪声的容忍能⼒就越⼤,最终效果越好。

但是,模型分错的数据点就越多,容易⽋拟合。

-t 选择核函数。

⼀般是线性和RBF做对⽐,线性速度更快,但要求数据可分;RBF更通⽤,默认选择RBF。

-g garma系数。

是exp(-gamma*|u-v|^2),相当于gamma=1/(2τ^2)。

τ表⽰⾼斯函数中的宽度,g与τ成反⽐。

g越⼤,τ越⼩,则⾼斯函数越窄,覆盖⾯积⼩,这样需要的⽀持向量越多,模型越复杂,容易过拟合。

-wi 对样本分类的权重分配。

因为,在分类中,某些分类可能更加重要。

-v 交叉验证的参数。

如何使用libsvm进行分类

如何使用libsvm进行分类

这帖子就是初步教教刚接触libsvm(svm)的同学如何利用libsvm进行分类预测,关于参数寻优的问题在这里姑且不谈,另有帖子详述。

其实使用libsvm进行分类很简单,只需要有属性矩阵和标签,然后就可以建立分类模型(model),然后利用得到的这个model进行分类预测了。

那神马是属性矩阵?神马又是标签呢?我举一个直白的不能在直白的例子:说一个班级里面有两个男生(男生1、男生2),两个女生(女生1、女生2),其中男生1 身高:176cm 体重:70kg;男生2 身高:180cm 体重:80kg;女生1 身高:161cm 体重:45kg;女生2 身高:163cm 体重:47kg;如果我们将男生定义为1,女生定义为-1,并将上面的数据放入矩阵data中,即1.data = [176 70;2.180 80;3.161 45;4.163 47];复制代码在label中存入男女生类别标签(1、-1),即bel = [1;1;-1;-1];复制代码这样上面的data矩阵就是一个属性矩阵,行数4代表有4个样本,列数2表示属性有两个,label就是标签(1、-1表示有两个类别:男生、女生)。

Remark:这里有一点废话一些(因为我看到不止一个朋友问我这个相关的问题):上面我们将男生定义为1,女生定义为-1,那定义成别的有影响吗?这个肯定没有影响啊!(用脚趾头都能想出来,我不知道为什么也会有人问),这里面的标签定义就是区分开男生和女生,怎么定义都可以的,只要定义成数值型的就可以。

比如我可将将男生定义为2,女生定义为5;后面的label相应为label=[2;2;5;5];比如我可将将男生定义为18,女生定义为22;后面的label相应为label=[18;18;22;22];为什么我说这个用脚趾头都能想怎么定义都可以呢?学过数学的应该都会明白,将男生定义为1,女生定义为-1和将男生定义为2,女生定义为5本质是一样的,应为可以找到一个映射将(2,5)转换成(1,-1),so所以本质都是一样的,后面的18、22本质也是一样的。

svm分类器实验——【机器学习与算法分析精品资源池】

svm分类器实验——【机器学习与算法分析精品资源池】

svm分类器实验——【机器学习与算法分析精品资源池】实验算法svm分类器实验【实验名称】SVM分类器实验【实验要求】掌握SVM分类器模型应用过程,根据模型要求进行数据预处理,建模,评价与应用;【背景描述】支持向量机是一个十分流行的针对二分类线性分类器,分类的方式是找到一个最优的超平面把两个类别分开。

定义“最优”的方式是使离分隔面最近的数据点到分隔面的距离最大,从而把这个问题转化成了一个二次优化问题。

通过拉格朗日变换,使得SVM可以应用不同的核函数(包括非线性核),从而使其获得处理非线性分类的能力。

【知识准备】了解SVM分类器模型的使用场景,数据标准。

了解Python数据处理一般方法。

了解sklearn 模型调用,训练以及应用方法【实验设备】Windows或Linux操作系统的计算机。

部署Spark,Python,本实验提供centos6.8环境。

【实验说明】采用UCI机器学习库中的wine数据集作为算法数据,把数据集随机划分为训练集和测试集,分别对模型进行训练和测试。

【实验环境】Pyrhon3.X,实验在命令行python中进行,或者把代码写在py 脚本,由于本次为实验,以学习模型为主,所以在命令行中逐步执行代码,以便更加清晰地了解整个建模流程。

【实验步骤】1第一步:启动python:命令行键入python,即可启动python终端,如图所示:第二步:导入用到的包,并读取数据:(1).导入所需的包from sklearn import svmfrom sklearn.model_selection import train_test_splitimport pandas as pdimport numpy as np(2).读取数据集,数据集地址为(/opt/algorithm/svm/wine.txt)df = pd.read_csv("/opt/algorithm/svm/wine.txt", header=None)(3).展示部分数据df.head()1第三步:数据预处理(1).把数据集切分为训练数据和测试数据,标准化trainData, testData = train_test_split(df, test_size=0.2)(2).数据标准化,获取每列均值,标准差avg_col = trainData.mean()td_col = trainData.std()(3).标准化df_train_norm = (trainData - avg_col) / td_col(4).整理训练数据df_train_norm = df_train_norm.drop([0], axis=1).join(trainData[0])trainData_X = np.array(df_train_norm.drop([0], axis=1))trainData_Y = np.array(df_train_norm[0])(5).标准化df_test_norm = (testData - avg_col) / td_col(6).整理训练数据df_test_norm = df_test_norm.drop([0], axis=1).join(testData[0])testData_X = np.array(df_test_norm.drop([0], axis=1))testData_Y = np.array(df_test_norm[0])1。

数据挖掘weka数据分类实验报告

数据挖掘weka数据分类实验报告

一、实验目的使用数据挖掘中的分类算法,对数据集进行分类训练并测试。

应用不同的分类算法,比较他们之间的不同。

与此同时了解Weka平台的基本功能与使用方法。

二、实验环境实验采用Weka 平台,数据使用Weka安装目录下data文件夹下的默认数据集iris.arff。

Weka是怀卡托智能分析系统的缩写,该系统由新西兰怀卡托大学开发。

Weka使用Java 写成的,并且限制在GNU通用公共证书的条件下发布。

它可以运行于几乎所有操作平台,是一款免费的,非商业化的机器学习以及数据挖掘软件。

Weka提供了一个统一界面,可结合预处理以及后处理方法,将许多不同的学习算法应用于任何所给的数据集,并评估由不同的学习方案所得出的结果。

三、数据预处理Weka平台支持ARFF格式和CSV格式的数据。

由于本次使用平台自带的ARFF格式数据,所以不存在格式转换的过程。

实验所用的ARFF格式数据集如图1所示图1 ARFF格式数据集(iris.arff)对于iris数据集,它包含了150个实例(每个分类包含50个实例),共有sepal length、sepal width、petal length、petal width和class五种属性。

期中前四种属性为数值类型,class属性为分类属性,表示实例所对应的的类别。

该数据集中的全部实例共可分为三类:Iris Setosa、Iris Versicolour和Iris Virginica。

实验数据集中所有的数据都是实验所需的,因此不存在属性筛选的问题。

若所采用的数据集中存在大量的与实验无关的属性,则需要使用weka平台的Filter(过滤器)实现属性的筛选。

实验所需的训练集和测试集均为iris.arff。

四、实验过程及结果应用iris数据集,分别采用LibSVM、C4.5决策树分类器和朴素贝叶斯分类器进行测试和评价,分别在训练数据上训练出分类模型,找出各个模型最优的参数值,并对三个模型进行全面评价比较,得到一个最好的分类模型以及该模型所有设置的最优参数。

svm实验报告

svm实验报告

svm实验报告SVM 实验报告一、实验目的本次实验的主要目的是深入理解和掌握支持向量机(Support Vector Machine,SVM)算法的原理和应用,并通过实际的实验操作来验证其在不同数据集上的性能表现。

二、实验原理SVM 是一种基于统计学习理论的有监督学习算法,其基本思想是在特征空间中寻找一个能够将不同类别样本正确分开的最优超平面。

这个超平面不仅要能够将训练样本正确分类,还要使得距离超平面最近的样本点(称为支持向量)到超平面的距离最大。

SVM 算法通过引入核函数将样本从原始空间映射到高维特征空间,从而使得在原始空间中非线性可分的问题在高维特征空间中变得线性可分。

常见的核函数包括线性核函数、多项式核函数、高斯核函数等。

三、实验环境本次实验使用的编程语言为 Python,主要使用了 sklearn 库中的SVM 模块。

实验运行环境为 Windows 10 操作系统,处理器为_____,内存为_____。

四、实验数据为了全面评估SVM 算法的性能,我们选用了以下几个公开数据集:1、 Iris 数据集:这是一个经典的多分类数据集,包含三种鸢尾花(山鸢尾、变色鸢尾和维吉尼亚鸢尾)的特征数据,如花瓣长度、花瓣宽度、萼片长度和萼片宽度等,共 150 个样本。

2、 Wine 数据集:该数据集包含了三种不同来源的葡萄酒的化学分析数据,共 178 个样本。

3、 Breast Cancer 数据集:用于二分类问题,判断乳腺肿瘤是良性还是恶性,包含 569 个样本。

五、实验步骤1、数据预处理首先,对数据集进行加载和读取。

然后,将数据集划分为训练集和测试集,通常采用随机划分的方式,比例为 7:3 或 8:2。

2、特征工程对于某些数据集,可能需要进行特征缩放或标准化,以确保不同特征具有相同的权重和尺度。

3、模型训练选择合适的核函数(如线性核、高斯核等)和参数(如 C 值、gamma 值等)。

使用训练集对 SVM 模型进行训练。

SVM实验报告

SVM实验报告

SVM分类算法一、数据源说明1、数据源说远和理解:采用的实验数据源为第6组:The Insurance Company Benchmark (COIL 2000) TICDATA2000.txt: 这个数据集用来训练和检验预测模型,并且建立了一个5822个客户的记录的描述。

每个记录由86个属性组成,包含社会人口数据(属性1-43)和产品的所有关系(属性44-86 )。

社会人口数据是由派生邮政编码派生而来的,生活在具有相同邮政编码地区的所有客户都具有相同的社会人口属性。

第86个属性:“大篷车:家庭移动政策” ,是我们的目标变量。

共有5822条记录,根据要求,全部用来训练。

TICEVAL2000.txt: 这个数据集是需要预测( 4000个客户记录)的数据集。

它和TICDATA2000.txt它具有相同的格式,只是没有最后一列的目标记录。

我们只希望返回预测目标的列表集,所有数据集都用制表符进行分隔。

共有4003(自己加了三条数据),根据要求,用来做预测。

TICTGTS2000.txt:最终的目标评估数据。

这是一个实际情况下的目标数据,将与我们预测的结果进行校验。

我们的预测结果将放在result.txt文件中。

数据集理解:本实验任务可以理解为分类问题,即分为2类,也就是数据源的第86列,可以分为0、1两类。

我们首先需要对TICDATA2000.txt进行训练,生成model,再根据model进行预测。

2、数据清理代码中需要对数据集进行缩放的目的在于:A、避免一些特征值范围过大而另一些特征值范围过小;B、避免在训练时为了计算核函数而计算内积的时候引起数值计算的困难。

因此,通常将数据缩放到[ -1,1] 或者是[0,1] 之间。

二、数据挖掘的算法说明1、s vm算法说明LIBSVM软件包是台湾大学林智仁(Chih-Jen Lin)博士等用C++实现的SVM库,并且拥有matlab,perl等工具箱或者代码,移植和使用都比较方便.它可以解决分类问题(包括C-SVC、n-SVC)、回归问题(包括e-SVR、n-SVR)以及分布估计(one-class-SVM )等问题,提供了线性、多项式、径向基和S形函数四种常用的核函数供选择,可以有效地解决多类问题、交叉验证选择参数、对不平衡样本加权、多类问题的概率估计等。

利用LibSVM进行二类文本分类系列

利用LibSVM进行二类文本分类系列

利⽤LibSVM进⾏⼆类⽂本分类系列
作者转载使⽤等请注明出处
笔者按:此系列博⽂仅对于Libsvm⼆分类做⼊门性的介绍,并⾮研究libsvm的专业⽔准⽂章。

⾄于如何⽤libsvm进⾏回归,多分类,笔者⽬前还没有涉及,请您查阅libsvm的相关⽂档说明。

这⾥给出⽂本预处理模块(Python语⾔编写);调⽤libsvm进⾏⽂本分类模块采⽤C语⾔编写;实验结果处理模块(Matlab)
⽤此份代码做的实验:
⽂本预处理部分主要功能:帮助读者能够快速⽤我的这套程序形成Libsvm格式数据,做实验。

分类部分代码完成的主要功能:完成⼯程中调⽤libsvm进⾏⽂本分类,并返返回准确率。

实验结果出来模块:完成数据统计,结果分析,画图等功能。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

一、LIBSVM介绍
LIBSVM是台湾大学林智仁(Chih-Jen Lin)副教授等开发设计的一个简单、易于使用和快速有效的SVM模式识别与回归的软件包,他不但提供了编译好的可在Windows系列系统的执行文件,还提供了源代码,方便改进、修改以及在其它操作系统上应用;该软件还有一个特点,就是对SVM所涉及的参数调节相对比较少,提供了很多的默认参数,利用这些默认参数就可以解决很多问题;并且提供了交互检验(Cross Validation)的功能。

二、准备工作
2.1软件下载安装
使用的平台是Windows XP,从命令列执行。

先把一些需要的东西装好,总共需要三个软件:libsvm, python, gnuplot。

这里我选择的版本是libsvm-2.88,python26。

Libsvm:到.tw/~cjlin/libsvm/下载libsvm,然后解压缩就好了。

Python:到/download/下载完直接安装就好了。

Gnuplot:下载ftp:///pub/gnuplot/gp400win32.zip解压缩。

这里全部解压安装在c盘
c:\libsvm-2.88
c:\python26
c:\gnuplot
2.2参数修改
(1)把c:\libsvm-2.88\tools中的easy.py和grid.py复制到c:\libsvm-2.91\python中
(2)在c:\libsvm-2.88\python中修改easy.py和grid.py的路径:
①点中easy.py在右键中选Edit with IDLE打开,将else下面的路径修改如下:
else:
# example for windows
svmscale_exe = r"c:\libsvm-2.88\windows\svm-scale.exe"
svmtrain_exe = r"c:\libsvm-2.88\windows\svm-train.exe"
svmpredict_exe = r"c:\libsvm-2.88\windows\svm-predict.exe"
gnuplot_exe = r"c:\gnuplot\bin\pgnuplot.exe"
grid_py = r"c:\libsvm-2.88\python\grid.py"
②点中grid.py在右键中选Edit with IDLE打开,将else下面的路径修改如下: else:
# example for windows
svmtrain_exe = r"c:\libsvm-2.91\windows\svm-train.exe"
gnuplot_exe = r"c:\gnuplot\bin\pgnuplot.exe"
三、实验步骤
(1)按照LIBSVM软件包所要求的格式准备数据集;
(2)对数据进行缩放操作;
(3)选用适当的核函数;
(4)采用交叉验证选择惩罚系数C与g的最佳参数;
(5)采用获得的最佳参数对整个训练集进行训练获取支持向量机模型;
(6)利用获取的模型进行测试与预测。

四、实验操作
4.1.数据准备
.tw/~cjlin/libsvmtools/datasets/binary.html#breast-cancer 下载heart.txt作为此次分类的初始数据
heart
Source: Statlog / Heart
# of classes: 2
# of data: 270
# of features: 13
Files:
heart
heart_scale (scaled to [-1,1])
4..2具体操作
(1)据归一化处理
将数据heart.txt保存在c:\libsvm-2.88\windows文件夹下
对原始数据进行归一化,步骤如下:
打开程序--附件—命令提示符,键入
cd c:\libsvm\windows 回车
再键入
svm-scale -l 0 -u 1 heart.txt > heart.scale.txt 回车
在c:\ libsvm-2.88\windows下出现一个heart.scale.txt文件
(2)然后将路径调整到
cd c:\python27
接着输入:python C:\libsvm\python\grid.py -log2c -10,10,1 -log2g 10,-10,-1 c:\libsvm\windows\heart.scale.txt > test.txt 回车
就会产生一个test.txt文件,其中记录了参数寻优的结果
可以看到,参数分别为c 2.0,g 0.03125,正确率mse为84% 在python26文件下有heart.scale.txt.png,得:
(2)然后利用所得到的参数c ,g对heart.scale.txt进行训练,输入
cd c:\libsvm-2.88\windows 回车
svm-train –c 2.0 –g 0.03125 heart.scale.txt
生成训练模型heart.scale.txt.model。

相关文档
最新文档