常用机器学习算法总结
AI机器学习的经典算法
![AI机器学习的经典算法](https://img.taocdn.com/s3/m/5dfe32130622192e453610661ed9ad51f11d544c.png)
AI机器学习的经典算法AI机器学习已经成为当今世界最热门的话题之一,其背后的技术也在不断发展。
然而,其中最重要的技术之一是机器学习的经典算法,这些算法是人工智能领域内最基础和最实用的算法之一。
本文将介绍AI机器学习的经典算法,以便您了解这些算法及其在机器学习中的应用。
回归算法回归算法是用来预测连续变量的机器学习算法。
简单来说,回归算法是一种预测未来数值的方法,因此在市场预测和金融预测等领域应用广泛。
其中,最常用的回归算法之一是线性回归。
线性回归是一种通过线性方程来建立变量之间关系的回归分析方法,该方法被广泛应用于预测股票价格、商品价格等。
决策树算法决策树是一种简单且易于理解的机器学习算法。
它将数据集拆分成多个子集,每个子集都与特定决策相关。
例如,在一个决策树中,一个决策点可能是"如果天气晴朗,则会出门锻炼"。
决策树算法已被广泛应用于许多领域,例如医学、自然语言处理和电子商务等。
朴素贝叶斯算法朴素贝叶斯算法是一种基于贝叶斯定理和条件概率的机器学习算法。
它用于分类和文本分类等问题。
具体来说,朴素贝叶斯算法可以用来判断垃圾邮件和正常邮件,并将其自动分类。
朴素贝叶斯算法已被广泛应用于邮件过滤、垃圾邮件检测和情感分析等领域。
支持向量机算法支持向量机算法是一种经典的机器学习算法,其主要用于分类问题。
支持向量机通过使一个折点沿分类分界线出现,以找到如何将不同的分类分离。
它被广泛应用于生物学、医学、犯罪和人脸识别等领域。
神经网络算法神经网络算法是一种模仿人脑的机器学习算法,其能够通过识别数据模式来执行任务。
神经网络算法已被广泛用于语音识别、图像识别和自然语言处理等领域。
与其他机器学习算法相比,神经网络算法的优势在于其能够找到更复杂的模式和动态性。
总结在AI机器学习领域,存在着许多经典的算法,这些算法是模型训练和预测等问题的解决方法,并被广泛应用于诸如金融预测、分类和文本分类、垃圾邮件检测和情感分析等各个领域。
d i s t a n c e 算 法 小 结
![d i s t a n c e 算 法 小 结](https://img.taocdn.com/s3/m/39da1abf102de2bd97058847.png)
十大机器学习算法的一个小总结关于机器学习算法的研究已经获得了巨大的成功,哈佛商业评论甚至将数据科学家称为二十一世纪最具诱惑力的工作。
机器学习算法是在没有人为干涉的情况下,从大量的数据和历史经验中学习数据的结构并提升对某一目标的估计的算法。
学习任务包括:学习从输入到输出的函数学习没有标签的数据的潜在结构基于实体的学习(‘instance-based learning’),譬如根据训练数据,对新的实体分类,判断其的类别。
机器学习算法的类型1. 有监督学习有监督学习通常是利用带有专家标注的标签的训练数据,学习一个从输入变量X到输入变量Y的函数映射。
训练数据通常是(n×x,y)的形式,其中n代表训练样本的大小,x和y 分别是变量X和Y的样本值。
(专家标注是指,需要解决问题所需要的领域专家,对数据预先进行人为的分析)利用有监督学习解决的问题大致上可以被分为两类:分类问题:预测某一样本所属的类别(离散的)。
比如给定一个人(从数据的角度来说,是给出一个人的数据结构,包括:身高,年龄,体重等信息),然后判断是性别,或者是否健康。
回归问题:预测某一样本的所对应的实数输出(连续的)。
比如预测某一地区人的平均身高。
下面所介绍的前五个算法(线性回归,逻辑回归,分类回归树,朴素贝叶斯,K最近邻算法)均是有监督学习的例子。
除此之外,集成学习也是一种有监督学习。
它是将多个不同的相对较弱的机器学习模型的预测组合起来,用来预测新的样本。
本文中所介绍的第九个和第十个算法(随机森林装袋法,和XGBoost算法)便是集成技术的例子。
2. 无监督学习无监督学习问题处理的是,只有输入变量X没有相应输出变量的训练数据。
它利用没有专家标注训练数据,对数据的结构建模。
可以利用无监督学习解决的问题,大致分为两类:关联分析:发现不同事物之间同时出现的概率。
在购物篮分析中被广泛地应用。
如果发现买面包的客户有百分之八十的概率买鸡蛋,那么商家就会把鸡蛋和面包放在相邻的货架上。
机器学习中的分类算法及其应用场景
![机器学习中的分类算法及其应用场景](https://img.taocdn.com/s3/m/a27dea54b94ae45c3b3567ec102de2bd9605def4.png)
机器学习中的分类算法及其应用场景机器学习是一种人工智能的分支,旨在通过数据的分析和模式的发现,使机器具备从经验中学习,并自动改善性能的能力。
分类算法是机器学习中最常用的一类算法,用于将数据集中的样本划分到不同的类别中。
在本文中,我们将介绍几种常见的分类算法及其应用场景。
一、决策树算法决策树算法是一种简单但常用的分类算法。
它通过创建一颗树状结构,从根节点开始递归地对数据集进行划分,直到达到指定的终止条件。
决策树算法的优点是易于理解和解释,并且能够处理大规模的数据集。
它在许多领域都有应用,例如医学诊断、金融风险评估和客户分类等。
二、朴素贝叶斯算法朴素贝叶斯算法是一种基于贝叶斯定理的分类算法。
它假设各个特征之间相互独立,并通过计算后验概率来进行分类。
朴素贝叶斯算法的优点是运算速度快、易于实现,并且对数据集中的噪声和缺失值有一定的鲁棒性。
它常用于文本分类、垃圾邮件过滤和情感分析等领域。
三、支持向量机算法支持向量机算法是一种基于统计学习理论的分类算法。
它通过在特征空间中构建一个最优的超平面,将不同类别的样本分开。
支持向量机算法的优点是能够处理高维数据、具有较高的准确率和鲁棒性。
它在图像识别、手写体识别和生物信息学等领域有广泛应用。
四、最近邻算法最近邻算法是一种简单但有效的分类算法。
它基于样本之间的距离度量,将测试样本分类为距离最近的训练样本所属的类别。
最近邻算法的优点是易于实现、不需要训练过程,并且对异常值有较好的鲁棒性。
它在推荐系统、图像识别和医学诊断等领域有广泛应用。
五、神经网络算法神经网络算法是一种模拟人脑神经网络结构和功能的分类算法。
它由多个神经元组成的层次结构,在训练过程中通过调整连接权重来实现模式的学习和分类。
神经网络算法的优点是能够处理复杂的非线性问题,并且具有较强的泛化能力。
它在图像处理、语音识别和自然语言处理等领域有广泛应用。
总结起来,机器学习中的分类算法有很多种,每种算法都有其适用的场景和特点。
常见的分类算法
![常见的分类算法](https://img.taocdn.com/s3/m/5b60b134df80d4d8d15abe23482fb4daa58d1d37.png)
常见的分类算法一、引言分类算法是机器学习中最常用的算法之一,它可以将数据集中的实例分配到不同的类别中。
分类算法在各个领域都有广泛的应用,如文本分类、图像分类、生物信息学等。
本文将介绍常见的分类算法。
二、K-近邻算法K-近邻算法是一种基于实例的学习方法,它通过计算待分类实例与训练集中每个实例之间的距离来确定其所属类别。
K-近邻算法的基本思想是:如果一个样本在特征空间中与K个样本最相似,则该样本属于这K个样本中出现次数最多的类别。
三、朴素贝叶斯算法朴素贝叶斯算法是一种基于概率统计的分类方法,它假设特征之间相互独立,并利用贝叶斯定理求解后验概率。
朴素贝叶斯算法在文本分类、垃圾邮件过滤等领域有广泛应用。
四、决策树算法决策树是一种基于树形结构进行决策分析的方法,它通过对属性值进行划分来构建决策树。
决策树算法常用的有ID3算法、C4.5算法和CART算法。
决策树算法在数据挖掘、金融风险评估等领域有广泛应用。
五、支持向量机算法支持向量机是一种基于统计学习理论的分类方法,它通过构造最优超平面来进行分类。
支持向量机具有高精度、泛化能力强、对噪声不敏感等优点,在图像识别、文本分类等领域有广泛应用。
六、神经网络算法神经网络是一种模拟生物神经系统的计算模型,它通过学习过程来确定权值和偏置参数,并利用激活函数进行分类。
神经网络具有强大的非线性建模能力,在图像识别、语音识别等领域有广泛应用。
七、总结本文介绍了常见的分类算法,包括K-近邻算法、朴素贝叶斯算法、决策树算法、支持向量机算法和神经网络算法。
每种分类方法都有其特点和适用范围,我们需要根据具体问题选择合适的方法来进行分类分析。
机器学习的算法原理
![机器学习的算法原理](https://img.taocdn.com/s3/m/dd0f85dd6aec0975f46527d3240c844769eaa0c7.png)
机器学习的算法原理机器学习是一门研究如何让计算机通过学习从数据中获取知识和经验的学科。
它的核心是算法,通过算法实现对数据的分析和模式的发现。
本文将介绍几种常见的机器学习算法原理。
一、监督学习算法1. 线性回归算法线性回归算法是一种基本的监督学习算法,它通过拟合数据集中的线性模型来预测连续数值。
该算法的原理是最小化预测值与真实值之间的平方差。
2. 逻辑回归算法逻辑回归算法是一种用于分类问题的监督学习算法。
它通过拟合数据集中的逻辑模型来预测样本的类别。
该算法的原理是通过将线性回归的输出映射到一个概率上,根据阈值判断样本的类别。
3. 决策树算法决策树算法是一种基于树结构进行决策的算法。
它通过选择最优特征进行划分,构建一个树形的决策模型。
该算法的原理是通过一系列的判断条件对样本进行分类。
二、无监督学习算法1. K均值聚类算法K均值聚类算法是一种常用的无监督学习算法,它将数据集中的样本划分为K个簇,以使得同一簇内的样本相似度最高,不同簇间的样本相似度最低。
该算法的原理是通过迭代优化簇的中心位置,使得样本与所属簇中心的距离最小。
2. 主成分分析算法主成分分析算法是一种降维技术,它通过线性变换将高维数据映射到低维空间。
该算法的原理是找到数据中方差最大的方向作为第一主成分,然后找到与第一主成分正交且方差次大的方向作为第二主成分,依次类推。
三、增强学习算法1. Q学习算法Q学习算法是一种强化学习算法,它通过学习一个动作值函数Q来进行决策。
该算法的原理是在一个环境中,智能体通过不断尝试和观察反馈来更新动作值函数,并选择能够最大化总回报的动作。
2. 蒙特卡洛树搜索算法蒙特卡洛树搜索算法是一种用于决策的强化学习算法,它通过模拟对未来可能的情况进行评估,并选择最优的行动。
该算法的原理是基于蒙特卡洛方法,利用随机采样和策略评估来搜索决策空间。
总结:机器学习的算法原理涵盖了监督学习、无监督学习和增强学习等多个领域。
不同的算法适用于不同的问题和数据类型。
机器学习算法分类回归和聚类方法
![机器学习算法分类回归和聚类方法](https://img.taocdn.com/s3/m/49234133f02d2af90242a8956bec0975f565a44a.png)
机器学习算法分类回归和聚类方法机器学习是一门研究如何让计算机通过大量数据自动学习并改善性能的学科。
在机器学习中,算法的选择至关重要。
本文将介绍机器学习中的三种常见算法:分类、回归和聚类。
一、分类算法分类是机器学习中最基本的任务之一,其目的是根据给定的数据集将实例划分到不同的类别中。
常见的分类算法有决策树、朴素贝叶斯分类器和支持向量机。
1. 决策树:决策树是一种基于树形结构的分类方法。
它通过对数据集进行递归划分,每次都选择最能提高分类准确性的特征进行划分。
通过构建决策树,可以得到一系列条件判断规则,从而对新实例进行分类。
2. 朴素贝叶斯分类器:朴素贝叶斯分类器基于贝叶斯定理和特征条件独立性假设。
该算法通过统计每个类别下各个特征的概率分布,并利用贝叶斯定理计算后验概率,从而进行分类。
3. 支持向量机:支持向量机通过构建超平面来实现分类。
其目标是找到一个最优超平面,使得训练集中的不同类别的样本距离超平面的间隔最大化。
该算法可以处理高维数据,具有很强的泛化能力。
二、回归算法回归是机器学习中另一种重要的任务,其目的是通过学习数据的输入输出关系,预测连续数值型的输出。
常见的回归算法有线性回归、多项式回归和支持向量回归。
1. 线性回归:线性回归是一种基于线性模型的回归方法。
它通过拟合数据集中的直线或超平面,来建立输入与输出之间的线性关系。
线性回归常用于分析连续变量之间的关系,以及进行趋势预测。
2. 多项式回归:多项式回归是一种基于多项式模型的回归方法。
它通过将输入特征的多项式形式引入回归模型,可以拟合更为复杂的数据分布。
多项式回归在非线性情况下能够提供更准确的预测。
3. 支持向量回归:支持向量回归与支持向量机类似,但它用于回归问题。
支持向量回归通过找到一个最优超平面,使得训练集中的样本与超平面的距离最小化,从而建立输入输出之间的非线性关系。
三、聚类算法聚类是机器学习中一种无监督学习方法,其目的是将数据集中的样本划分为若干个类别,使得同类样本之间的相似度高于异类样本。
机器学习中的常见算法及应用场景
![机器学习中的常见算法及应用场景](https://img.taocdn.com/s3/m/5f1383b76429647d27284b73f242336c1eb93004.png)
机器学习中的常见算法及应用场景机器学习是近年来非常热门的研究领域,许多人都将其视为未来科技的发展方向之一。
而在机器学习中,算法的选择和应用是非常关键的环节。
本文将介绍机器学习中常见的算法及其应用场景。
一、监督学习算法监督学习是机器学习中最常见的一类算法,其主要的任务是根据已知的输入-输出数据,预测新的输入所对应的输出值。
常见的监督学习算法包括线性回归、逻辑回归、决策树、支持向量机(SVM)等。
1. 线性回归算法线性回归是一种最基本的监督学习算法,其目的是根据已知的一组特征值和对应的结果,得到一个线性方程,用于预测新的输入所对应的输出值。
常见的应用场景包括房价预测、销售预测等等。
2. 逻辑回归算法逻辑回归是一种广义的线性回归模型,常用于二分类问题。
其目的是通过一个sigmoid函数将输入映射到0~1之间,表示分类的概率。
逻辑回归常被用于信用评分、欺诈检测、广告点击率预测等场景。
3. 决策树算法决策树是一种基于树结构的分类器,通过对数据集的分裂,构造一个树形结构来进行分类。
其适用于离散型数据和连续型数据,常被用于金融、医学、电商等领域。
4. 支持向量机(SVM)算法支持向量机是一种二分类模型,其决策边界是一个超平面,使其距离最近的样本点到该超平面的距离最大。
它被广泛应用于图像识别、自然语言处理等领域。
二、无监督学习算法无监督学习算法的任务是从无标记数据中找到数据内在的结构或规律,常见的算法包括聚类、降维等。
1. K均值聚类算法K均值聚类是一种常见的聚类算法,其目的是将样本划分成K个簇,簇内样本相似度高,不同簇样本相似度低。
常被用于市场分析、医学影像分析等领域。
2. 层次聚类算法层次聚类是一种自下而上或自上而下的聚类算法,其目标是将样本逐步合并或分裂成若干个簇。
常被用于生物学、社会科学、自然语言处理等领域。
3. 主成分分析(PCA)算法PCA是一种线性降维算法,它通过线性变换,将高维数据映射到一个低维空间上,保留样本的主要信息。
网络安全中的机器学习算法
![网络安全中的机器学习算法](https://img.taocdn.com/s3/m/18353f30a36925c52cc58bd63186bceb19e8ed89.png)
网络安全中的机器学习算法机器学习在网络安全中扮演着越来越重要的角色,可以应用于威胁检测、入侵检测、恶意软件检测等多个领域。
下面将针对网络安全中常用的三种机器学习算法进行详细介绍。
1. 支持向量机(Support Vector Machine,SVM)支持向量机是一种有监督学习算法,被广泛应用于入侵检测、恶意软件检测等任务中。
其主要思想是将不同类别的数据点分割开来。
在网络安全中,可以通过收集来自网络流量、日志数据等的特征作为输入,然后训练一个支持向量机模型来识别和分类正常和异常的网络流量。
SVM算法的优点是可以处理高维数据、具有较好的泛化能力,并且可以通过调整核函数的选择来适应不同类型的数据。
但是在大规模问题中,SVM的计算复杂度较高,且对于不平衡数据的处理相对较为困难。
2. 随机森林(Random Forest)随机森林是一种集成学习算法,它由多个决策树组成,每个决策树都是基于随机选择的特征和样本进行训练。
在网络安全中,随机森林可以用于恶意软件检测、网络威胁分析等任务。
随机森林算法具有良好的抗过拟合能力,并且可以处理高维数据和不平衡数据。
同时,由于随机森林是并行处理的,可以有效地处理大规模数据。
然而,随机森林算法在一些情况下可能会过分依赖于噪声数据,并且对于异常数据较少的情况下表现并不理想。
3. 深度学习(Deep Learning)深度学习是机器学习中的一种神经网络模型,通过多层的神经网络模拟人脑的处理过程。
在网络安全中,深度学习算法可以用于威胁检测、异常检测等任务。
深度学习算法能够通过自我学习和适应性学习来发现数据中的模式和特征,并且具有较好的泛化能力。
同时,深度学习模型可以处理大规模数据和复杂的非线性关系。
然而,深度学习算法的训练需要大量的数据和计算资源,并且对于模型的解释性较差。
除了上述三种常见的机器学习算法,还有许多其他算法在网络安全中得到了应用,如朴素贝叶斯、逻辑回归、神经网络等。
值得一提的是,单一的机器学习算法可能无法应对所有网络安全问题,因此通常需要结合多种算法以提高准确性和鲁棒性。
图像识别中的机器学习算法概述
![图像识别中的机器学习算法概述](https://img.taocdn.com/s3/m/0abd5a7bbf1e650e52ea551810a6f524ccbfcbab.png)
图像识别中的机器学习算法概述随着人工智能技术的发展,图像识别已经成为其中一项重要的应用之一。
利用机器学习算法,计算机可以通过分析和理解图像来识别物体、人脸、文字等,并进行分类和标记。
本文将对图像识别中的机器学习算法进行概述,包括传统算法和深度学习算法。
一、传统机器学习算法1. 支持向量机(Support Vector Machine,SVM)支持向量机是一种监督学习算法,其目标是将样本点划分到不同的类别中。
在图像识别中,SVM可以应用于目标检测、图像分类和人脸识别等任务中。
它通过构建一个最优的超平面来进行分类,并可以处理高维特征。
2. 随机森林(Random Forest)随机森林是一种集成学习算法,由多个决策树组成。
在图像识别中,随机森林可以用于特征提取和图像分类。
它通过对决策树进行投票来确定最终的分类结果,有效地降低了过拟合的风险。
3. K近邻算法(K-Nearest Neighbors,KNN)K近邻算法是一种简单而有效的监督学习算法。
在图像识别中,KNN可以用于图像分类和目标识别。
它的基本原理是根据样本的特征和距离来确定其所属类别,即根据和目标最近的K个训练样本进行投票。
4. 主成分分析(Principal Component Analysis,PCA)主成分分析是一种常用的降维技术,可以在保留关键信息的同时减少数据的维度。
在图像识别中,PCA可用于特征提取和图像压缩。
通过计算协方差矩阵,PCA可以找到数据中最主要的特征,从而实现降维。
二、深度学习算法1. 卷积神经网络(Convolutional Neural Network,CNN)卷积神经网络是深度学习算法在图像识别中最为常用的模型。
它模拟了人类视觉系统实现对图像的理解和处理。
CNN通过多层的卷积和池化操作提取图像的特征,并通过全连接层进行分类。
2. 循环神经网络(Recurrent Neural Network,RNN)循环神经网络是一种适用于序列数据处理的深度学习算法,在图像识别中主要应用于图像标记和生成。
自然语言处理技术中常用的机器学习算法介绍
![自然语言处理技术中常用的机器学习算法介绍](https://img.taocdn.com/s3/m/b1725553001ca300a6c30c22590102020740f22d.png)
自然语言处理技术中常用的机器学习算法介绍自然语言处理(Natural Language Processing,NLP)是人工智能领域中研究人类语言与计算机之间交互的一门学科。
在NLP领域中,机器学习算法被广泛应用于语言模型、文本分类、命名实体识别、情感分析等任务中。
本文将介绍NLP中常用的机器学习算法,包括支持向量机(Support Vector Machine,SVM)、朴素贝叶斯(Naive Bayes)、隐马尔可夫模型(Hidden Markov Model,HMM)和递归神经网络(Recurrent Neural Network,RNN)。
支持向量机(SVM)是一种常用的监督学习算法,广泛用于文本分类、情感分析等NLP任务中。
其核心思想是将数据映射到高维空间,通过构建一个最优的超平面,来实现数据的分类。
SVM在处理小样本、非线性和高维特征等问题上具有较好的性能。
朴素贝叶斯(Naive Bayes)是一种基于概率的分类算法,常用于文本分类任务。
它基于贝叶斯定理和特征间的条件独立性假设,可以在给定训练数据的条件下,通过计算后验概率来进行分类。
朴素贝叶斯算法简单、计算效率高,并且对输入数据的特征空间进行了较弱的假设,适用于处理大规模的文本分类问题。
隐马尔可夫模型(HMM)是一种统计模型,常用于语音识别、机器翻译等NLP任务中。
HMM假设系统是一个由不可观察的隐含状态和观测到的可见状态组成的过程,通过观察到的状态序列来估计最可能的隐含状态序列。
HMM广泛应用于词性标注、命名实体识别等任务中,具有较好的效果。
递归神经网络(RNN)是一种具有记忆能力的神经网络,适用于处理序列数据,如语言模型、机器翻译等NLP任务。
RNN通过引入循环结构,可以对序列中的上下文信息进行建模。
长短期记忆网络(Long Short-Term Memory,LSTM)是RNN的一种改进,通过引入门控机制解决了传统RNN存在的长期依赖问题,更适合处理长文本和复杂语义。
常见机器学习算法的原理和应用分析
![常见机器学习算法的原理和应用分析](https://img.taocdn.com/s3/m/1289a7987e192279168884868762caaedd33ba85.png)
常见机器学习算法的原理和应用分析机器学习(Machine Learning, ML)是人工智能(Artificial Intelligence, AI)的核心领域之一,是一种通过样本数据对机器进行训练、自主探索特征规律及进行预测、判断等任务的方法。
机器学习算法是机器学习的核心内容,针对不同的问题和数据,具有不同的算法模型。
本文将针对常见机器学习算法的原理和应用进行分析。
一、监督学习算法监督学习算法是最为常见的机器学习算法,它的训练样本包含输入和输出的对应关系。
在监督学习算法中,常用的模型有决策树、随机森林、朴素贝叶斯、支持向量机等。
1. 决策树决策树(Decision Tree)是一种基于树形结构进行决策分析的算法。
通过将数据样本划分成多个类别,并形成一颗树状结构,确定样本通过树状结构的哪个分支可归属于哪个类别。
在决策树的构建过程中,通常采用递归的形式,对样本数据进行分裂。
具体地,根据所有属性的每个划分,都计算一个信息增益,并选择信息增益最大的属性作为当前节点的划分属性,对该属性进行划分。
直到叶子节点的样本属于同一类,或者节点所代表的属性集合为空时迭代结束。
2. 随机森林随机森林(Random Forest)是一种基于多个决策树构建的集成模型,以降低模型方差,提高模型精度。
随机森林的构建方式是通过对多个决策树在选择属性、分裂点时采用随机方法,形成多个弱分类器,共同进行综合决策。
随机森林的训练过程中,先利用自助式(Bootstrap)采样原始数据形成数据集,再分别随机选择每棵树的属性和分裂点,构建决策树。
最后,通过投票方式将多个决策树的结果进行集成,形成一个最终的整体结果。
3. 朴素贝叶斯朴素贝叶斯(Naive Bayes)是一种基于贝叶斯定理而来的分类算法,其基本思想是通过先验概率和概率密度函数,通过样本数据推导后验概率,最后对样本进行分类。
朴素贝叶斯算法假设所有特征都是相互独立的,并把各个特征的概率合成后,再根据贝叶斯公式计算后验概率,进行分类。
机器学习常见的优化算法
![机器学习常见的优化算法](https://img.taocdn.com/s3/m/05ec755668eae009581b6bd97f1922791688bea3.png)
机器学习常见的优化算法1、梯度下降法梯度下降法是最早最简单的,也是最为常⽤的最优化算法。
梯度下降法实现简单,当⽬标函数是凸函数时,梯度下降法的解是全局解。
⼀般情况下,其解不保证是全局最优解,梯度下降法的速度未必是最快的。
梯度下降法的优化思想是⽤当前位置负梯度⽅向作为搜索⽅向,因为该⽅向为当前位置的最快下降⽅向,所以也被称为“最速下降法”。
最速下降法越接近⽬标值,步长越⼩,前进越慢。
在机器学习中,基于基本的梯度下降法发展了两种梯度下降⽅法,分别为随即梯度下降法和批量梯度下降法。
批量梯度下降:最⼩化所有训练样本的损失函数,使得最终求解的是全局的最优解,即求解的参数是使得风险函数最⼩,但是对于⼤规模样本问题效率低下。
随机梯度下降法:最⼩化每条样本的损失函数,虽然不是每次迭代得到的损失函数都向着全局最优⽅向,但是⼤的整体的⽅向是向着全局最优解,最终的结果往往是在全局最优解附近,使⽤于⼤规模训练样本情况。
2、⽜顿和拟⽜顿法从本质上去看,⽜顿法是⼆阶收敛,梯度下降是⼀阶收敛,所以⽜顿法更快。
如果更通俗得到说的话,⽐如你想找⼀条最短的路径⾛到⼀个盆地的最底部,梯度下降法每次只从你当前的位置选⼀个坡度最⼤的⽅向⾛⼀步,⽜⽜顿法在选择⽅向时,不仅会考虑坡度是否⾜够⼤,还会考虑你⾛了⼀步之后,坡度是否会变得更⼤。
所以,可以说是⽜顿法⽐梯度下降法看的更远⼀点,能更快地⾛到最底部。
优点:⼆阶收敛,收敛速度更快;缺点:⽜顿法是⼀种迭代算法,每⼀步都需要求解⽬标函数的hessian矩阵的逆矩阵,计算⽐较复杂。
拟⽜顿法拟⽜顿法的基本思想是改善⽜顿法每次需要求解复杂的Hessian矩阵的逆矩阵的缺点,它使⽤正定矩阵来近似Hessian矩阵的逆,从⽽简化了运算的复杂度。
拟⽜顿法和最速下降法⼀样只要每⼀步迭代时知道⽬标函数的梯度。
通过测量梯度的变化,构造⼀个⽬标函数的模型使之⾜以产⽣超线性收敛性。
这类⽅法⼤⼤优与最速下降法,尤其对于困难的问题,另外,因为拟⽜顿法不需要⼆阶倒数的信息,所以有时⽐⽜顿法更为有效。
机器学习的9个基础概念和10种基本算法总结
![机器学习的9个基础概念和10种基本算法总结](https://img.taocdn.com/s3/m/f1d0b38d4b35eefdc8d333ac.png)
机器学习的9个基础概念和10种基本算法总结1.基础概念:(1) 10折交叉验证:英文名是10-fold cross-validation,用来测试算法的准确性。
是常用的测试方法。
将数据集分成10份。
轮流将其中的9份作为训练数据,1分作为测试数据,进行试验。
每次试验都会得出相应的正确率(或差错率)。
10次的结果的正确率(或差错率)的平均值作为对算法精度的估计,一般还需要进行多次10折交叉验证,在求其平均值,对算法的准确性进行估计。
(2) 极大似然估计:极大似然估计,只是一种概率论在统计学中的应用,它是参数评估的方法之一。
说的已知某个随机样本满足某种概率分布,但是其中具体的参数不清楚,参数估计通过若干次实验,观察其结果,利用结果推出参数的大概值。
极大似然估计是建立在这样的思想上的:已知某个参数能使这个样本出现的概率最大。
我们当然不会再去选择其他其他小概率的样本,所以干脆就把这个参数作为估计的真实值。
(3) 在信息论中,熵表示的是不确定性的量度。
信息论的创始人香农在其著作《通信的数学理论》中提出了建立在概率统计模型上的信息度量。
他把信息定义为”用来消除不确定性的东西“。
熵的定义为信息的期望值。
ps:熵指的是体系的混乱程度,它在控制论,概率论,数论,天体物理,生命科学等领域都有重要的应用,在不同的学科中也有引申出更为具体的定义,是各个领域十分重要的参量。
熵由鲁道夫.克劳修斯提出,并应用在热力学中。
后来在,克劳德.埃尔伍德.香农第一次将熵的概念引入到信息论中来。
(4) 后验概率是信息论的基本概念之一。
在一个通信系统中,在收到某个消息之后,接收端所了解到的该消息发送的概率称为后验证概率。
后验概率是指在得到”结果“的信息后重新修正的概率,如贝叶斯公式中的。
是执果寻因的问题。
后验概率和先验概率有着不可分割的联系,后验的计算要以先验概率为基础,其实说白了后验概率其实就是条件概率。
(5) PCA 主成分分析:优点:降低数据的复杂性,识别最重要的多个特征。
金融数据分析中常用的机器学习算法总结与比较
![金融数据分析中常用的机器学习算法总结与比较](https://img.taocdn.com/s3/m/786e6b6a657d27284b73f242336c1eb91b373376.png)
金融数据分析中常用的机器学习算法总结与比较在当今的金融行业中,数据分析发挥着重要的作用,帮助金融机构做出更明智的决策。
机器学习算法作为一种自动化分析技术,正逐渐成为金融数据分析的有力工具。
在本文中,我们将总结和比较金融数据分析中常用的机器学习算法。
1. 线性回归 (Linear Regression)线性回归是一种用于预测数值型变量的监督学习算法。
在金融数据分析中,线性回归常用于预测股票价格、财务指标等。
线性回归基于输入变量与输出变量之间的线性关系,并通过最小二乘法来拟合最佳的线性回归模型。
2. 逻辑回归 (Logistic Regression)逻辑回归是一种预测二分类问题的监督学习算法。
在金融数据分析中,逻辑回归可用于预测客户是否违约、是否购买某个金融产品等。
逻辑回归通过将线性回归的输出映射到0-1之间的概率值,然后根据阈值进行分类预测。
3. 决策树 (Decision Trees)决策树是一种基于树状结构的监督学习算法。
在金融数据分析中,决策树可用于风险评估、信用评级等。
决策树根据输入变量分裂节点,通过递归地进行决策,最终给出预测结果。
4. 随机森林 (Random Forest)随机森林是一种将多个决策树聚合在一起的集成学习算法。
在金融数据分析中,随机森林可用于投资组合优化、风险管理等。
随机森林通过对特征随机采样来生成多个决策树,并通过投票或平均来得出最终预测结果。
5. 支持向量机 (Support Vector Machines)支持向量机是一种用于分类和回归的监督学习算法。
在金融数据分析中,支持向量机可用于市场趋势预测、风险评估等。
支持向量机通过找到样本集中的支持向量,并基于这些支持向量构建最优的分类超平面。
6. 朴素贝叶斯 (Naive Bayes)朴素贝叶斯是一种基于贝叶斯定理和特征间独立性假设的监督学习算法。
在金融数据分析中,朴素贝叶斯可用于垃圾邮件过滤、投资组合优化等。
朴素贝叶斯通过计算后验概率来预测分类结果。
人工智能十大算法总结
![人工智能十大算法总结](https://img.taocdn.com/s3/m/1bd1d8cbcd22bcd126fff705cc17552707225e2e.png)
人工智能十大算法总结
一,深度学习
深度学习(Deep Learning)是一种流行的机器学习技术,它利用多层神经网络对复杂的数据进行分析和处理。
它是目前实现最为成功的人工智能算法之一,在图像识别、语音识别、自然语言处理等领域取得了显著的成果。
深度学习算法的基础是深度神经网络,该算法可构建具有记忆和泛化能力的神经网络,并在获得训练数据后进行学习,从而自动提取特征并完成相应的预测任务。
深度学习一般在大数据集上进行训练,具有良好的特征提取能力以及在预测任务上的表现。
二、卷积神经网络
卷积神经网络(ConvolutionalNN)是一种特殊的深度学习算法,它优化了传统的神经网络的计算效率。
该算法将一系列卷积层和池化层组合构建而成,并将每层输出与下一层输入相连,以实现特定的功能。
三、支持向量机
支持向量机(SVM)是一种非常流行的机器学习算法,它主要用于分类和回归任务,用来在可用数据中学习模型参数。
SVM的优势在于可以有效地使用少量的样本数据进行训练,并且可以实现非线性、非平稳的分类和回归。
四、随机森林
随机森林(Random Forest)是一种常用的机器学习算法,它利用随机森林来构建决策树模型,以实现分类和回归任务。
C语言机器学习与深度学习算法
![C语言机器学习与深度学习算法](https://img.taocdn.com/s3/m/fd65733db42acfc789eb172ded630b1c59ee9bb1.png)
C语言机器学习与深度学习算法C语言作为一种高级编程语言,广泛应用于软件开发、系统编程等领域。
随着人工智能的迅猛发展,机器学习和深度学习算法在各个领域的应用也越来越广泛。
本文将介绍C语言在机器学习和深度学习算法中的应用及相关的技术。
一、机器学习算法1.线性回归算法线性回归是一种基础的机器学习算法,通过拟合数据点与一条直线的最小二乘法来预测未知数据点的值。
在C语言中,我们可以使用最小二乘法来实现线性回归算法。
首先,我们需要定义一个函数来计算最小二乘法的结果,然后调用该函数来进行预测。
2.逻辑回归算法逻辑回归算法是一种用于分类的机器学习算法,常用于二分类问题。
在C语言中,我们可以使用梯度下降法来优化逻辑回归算法。
首先,我们需要定义一个损失函数来度量模型的预测误差,然后使用梯度下降法来最小化损失函数,得到最优的模型参数。
3.支持向量机算法支持向量机算法是一种用于分类和回归的机器学习算法,通过找到一个最优超平面来将不同类别的数据点分隔开。
在C语言中,我们可以使用LIBSVM等开源库来实现支持向量机算法。
首先,我们需要导入相关的库文件,然后定义训练集和测试集,最后调用相应的函数来进行分类或回归任务。
二、深度学习算法1.人工神经网络算法人工神经网络是一种模仿生物神经网络结构和功能的数学模型,是深度学习算法的核心。
在C语言中,我们可以使用各种神经网络库来构建和训练人工神经网络模型。
首先,我们需要定义网络的结构和参数,然后使用反向传播算法来更新和优化网络的权重和偏置。
2.卷积神经网络算法卷积神经网络是一种特殊的人工神经网络,专门用于处理具有网格结构的数据,如图像和语音。
在C语言中,我们可以使用开源库如Caffe、TensorFlow等来构建和训练卷积神经网络模型。
首先,我们需要定义卷积层和池化层的结构,然后使用反向传播算法来更新和优化网络的权重和偏置。
3.循环神经网络算法循环神经网络是一种具有反馈连接的神经网络,能够处理具有时序关系的数据,如文本和语音。
机器学习中的推荐系统算法
![机器学习中的推荐系统算法](https://img.taocdn.com/s3/m/f5e42cbc0342a8956bec0975f46527d3250ca65f.png)
机器学习中的推荐系统算法机器学习在不断进步的今天,已经广泛应用于众多领域,其中推荐系统算法是其中一个领域的热点和难点。
推荐系统是指根据用户的历史行为和偏好,为其提供个性化的推荐信息,以提高用户体验和满足用户需求。
本文将介绍机器学习中常用的推荐系统算法。
一、协同过滤算法(Collaborative Filtering)协同过滤算法是推荐系统中最常用的算法之一。
它基于用户历史行为和其他用户的行为数据进行推荐。
核心思想是通过找到和目标用户兴趣相似的其他用户,利用他们的行为数据来推荐给目标用户。
协同过滤算法分为两种:基于用户的协同过滤和基于物品的协同过滤。
基于用户的协同过滤算法首先找到和目标用户相似的其他用户,然后将这些用户喜欢的物品推荐给目标用户。
而基于物品的协同过滤算法则是先找到和目标物品相似的其他物品,然后将这些相似物品推荐给目标用户。
二、内容过滤算法(Content Filtering)内容过滤算法是基于物品属性和用户喜好之间的匹配程度进行推荐的算法。
它通过对物品进行标签、分类等属性的分析,结合用户的历史行为,给用户推荐与其兴趣相符的物品。
内容过滤算法根据物品的属性和用户的喜好进行匹配,从而推荐合适的物品给用户。
举个例子,如果用户经常购买运动鞋,那么推荐系统就可以根据运动鞋的属性和其他用户的购买记录,为用户推荐其他品牌或类型的运动鞋。
三、基于模型的推荐算法(Model-based Recommendation)基于模型的推荐算法是通过对用户和物品之间的关系建立模型,然后利用模型进行推荐。
常用的模型包括矩阵分解、图模型等。
矩阵分解是一种常用的基于模型的推荐算法。
它通过矩阵的分解来提取出用户和物品之间的潜在特征,并利用这些特征来计算用户对物品的兴趣度,从而进行推荐。
四、深度学习算法(Deep Learning)随着深度学习技术的快速发展,深度学习算法也开始在推荐系统中得到广泛应用。
深度学习算法具有强大的模式识别和学习能力,可以从海量的用户行为数据中挖掘出更深层次的特征,提高推荐系统的准确性和个性化。
常见深度学习算法总结
![常见深度学习算法总结](https://img.taocdn.com/s3/m/baee71624a35eefdc8d376eeaeaad1f3469311d6.png)
常见深度学习算法总结深度学习是一种基于人工神经网络的机器学习方法,可以用于数据处理和模式识别任务。
下面总结了一些常见的深度学习算法:1. 卷积神经网络(Convolutional Neural Networks,简称CNN):主要用于图像识别和计算机视觉任务。
它使用了卷积层和池化层等特殊的神经网络层,可以有效地提取图像中的特征。
2. 递归神经网络(Recurrent Neural Networks,简称RNN):主要用于序列数据的处理,如语音识别和自然语言处理。
RNN的关键特点是能够记忆先前计算的结果,将其作为输入传递给后续的计算。
3. 长短期记忆网络(Long Short-Term Memory,简称LSTM):是一种特殊类型的RNN,通过引入记忆单元和门控机制,解决了传统RNN存在的梯度消失和梯度爆炸的问题。
LSTM可以有效地处理长序列数据,并用于机器翻译、语音识别等任务。
4. 生成对抗网络(Generative Adversarial Networks,简称GAN):由生成器网络和判别器网络组成,通过对抗训练的方式实现生成新的数据样本。
GAN被广泛应用于图像生成、图像修复等任务。
5. 自编码器(Autoencoders):是一种无监督学习的神经网络结构,通过学习数据的压缩表示和解码重构来学习数据的特征。
自编码器常用于数据降维、特征提取等任务。
6. 强化学习(Reinforcement Learning):通过不断与环境交互来优化策略,从而使智能体能在一些目标任务中获得最大的累积奖励。
强化学习常用于机器人控制、游戏智能等领域。
7. 生成模型(Generative Models):如变分自编码器(Variational Autoencoders,简称VAE)、生成对抗网络(GAN)等,用于生成符合其中一种分布的样本,可以用于图像生成、文本生成等任务。
8. 迁移学习(Transfer Learning):将已经在一个任务上训练好的模型应用到另一个相关的任务上,可以减少训练时间和数据需求。
机器学习算法原理解析
![机器学习算法原理解析](https://img.taocdn.com/s3/m/cb94e30e5627a5e9856a561252d380eb6394235b.png)
机器学习算法原理解析机器学习是人工智能领域中的一项重要技术,它的背后则是一系列高效的算法。
机器学习算法可以应用于各种领域,如自然语言处理、图像处理、语音识别等。
本文将对几个常用的机器学习算法进行简要的原理解析。
一、逻辑回归逻辑回归是一种分类算法,它的原理是利用逻辑函数来将数据归为不同的类别。
逻辑回归常用于二元分类问题,例如判断一封电子邮件是否为垃圾邮件。
逻辑回归使用的是sigmoid函数,它的形式为:$$h_{\theta}(x)=\frac{1}{1+e^{-\theta^{T}x}}$$其中$x$为输入数据,$\theta$为待学习的参数。
当$h_{\theta}(x)>0.5$时,将数据预测为正例,当$h_{\theta}(x)<0.5$时,将数据预测为负例。
逻辑回归的目标是最大化似然函数:$$L(\theta)=\prod_{i=1}^{m}[h_{\theta}(x^{(i)})]^{y^{(i)}}[1-h_{\theta}(x^{(i)})]^{1-y^{(i)}}$$其中$m$为数据样本数,$y^{(i)}$为真实标签。
利用梯度下降法,我们可以求出最优的参数$\theta$,从而得到一个可用的分类器。
二、决策树决策树是一种常用的分类算法,它将数据根据一系列问题进行分类。
决策树的每个节点都是一个问题,每个分支代表一个回答,最终将数据分到叶子节点中。
决策树的生成过程分为两个步骤:选择最优属性和划分数据集。
我们需要选择一个“最优”的属性,将数据划分成更加纯净的子数据集。
划分的方法有很多种,例如信息增益、信息增益比等。
信息熵是衡量数据纯度的一种指标,它的定义如下:$$H(p)=-\sum_{i=1}^{n}p_{i}\log_{2}p_{i}$$其中$n$为数据中类别数量,$p_{i}$为类别$i$出现的概率。
当数据越纯净,信息熵越小,因此我们需要选择能够使熵减小最多的属性进行划分。
机器学习算法的分类和应用
![机器学习算法的分类和应用](https://img.taocdn.com/s3/m/df27c7b5c9d376eeaeaad1f34693daef5ef7130b.png)
机器学习算法的分类和应用机器学习是一门研究如何使计算机具备学习能力的领域,通过分析和概括数据,机器学习算法能够自动的学习模式并作出预测。
在实际应用中,机器学习算法被广泛应用于各个领域,例如自然语言处理、计算机视觉、推荐系统等。
本文将介绍机器学习算法的分类以及在不同领域中的应用。
一、机器学习算法的分类1. 监督学习算法监督学习是机器学习中最常见的算法类型之一,它需要有一组已经标记好的训练数据,通过学习这些数据的特征和标签之间的关系,来进行模型的训练和预测。
常见的监督学习算法有线性回归、逻辑回归、决策树、支持向量机等。
2. 无监督学习算法无监督学习是指在没有标签的情况下,通过对数据的特征进行分析和挖掘,自动发现数据中的模式和结构。
常见的无监督学习算法有聚类算法、主成分分析等。
无监督学习常用于对数据集进行分类、聚类和降维等任务。
3. 强化学习算法强化学习是一种通过试错来确定最佳行为的算法。
它通过与环境进行交互,通过尝试不同的行动并获取奖励或惩罚来学习最优策略。
强化学习常用于机器人控制、游戏智能等领域。
二、机器学习算法的应用1. 自然语言处理自然语言处理是指让计算机理解和处理人类语言的领域。
机器学习算法在自然语言处理中有广泛的应用,如机器翻译、情感分析、文本分类等。
通过机器学习算法,计算机能够学习语言的规律和潜在的语义,提高自然语言处理的准确性和效率。
2. 计算机视觉计算机视觉是指让计算机通过处理和分析图像和视频来获取信息的领域。
机器学习算法在计算机视觉中的应用非常广泛,如图像分类、物体检测、人脸识别等。
通过机器学习算法,计算机能够学习图像和视频中的特征和模式,从而实现对图像和视频的理解和分析。
3. 推荐系统推荐系统是指根据用户的兴趣和偏好,向用户推荐个性化的内容或商品的系统。
机器学习算法在推荐系统中被广泛应用,如协同过滤、内容过滤等算法。
通过机器学习算法,推荐系统能够学习用户的兴趣和偏好,提高推荐的准确性和个性化程度。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
kNN算法是一种判别模型,即支持分类问题,也支持回归问题,是一种非线性模型。它天然的支持多分类问题。kNN算法没有训练过程,是一种基于实例的算法。
在上图中样本用红色的点表示,倾斜的直线是它们的主要变化方向。将数据投影到这条直线上即完成数据的降维,把数据从2维降为1维。计算最佳投影方向时求解的最优化问题为:
最后归结为求协方差矩阵的特征值和特征向量:
PCA是一种无监督的学习算法,它是线性模型,不能直接用于分类和回归问题。
LDA
核心:向最大化类间差异、最小化类内差异的方向线性投影
训练时,通过最大化Gini或者其他指标来寻找最佳分裂。决策树可以输特征向量每个分量的重要性。
决策树是一种判别模型,既支持分类问题,也支持回归问题,是一种非线性模型(分段线性函数不是线性的)。它天然的支持多分类问题。
KNN
核心:模板匹配,将样本分到离它最相似的样本所属的类
kNN算法本质上使用了模板匹配的思想。要确定一个样本的类别,可以计算它与所有训练样本的距离,然后找出和该样本最接近的k个样本,统计这些样本的类别进行投票,票数最多的那个类就是分类结果。下图是kNN算法的示意图:
算法的第一步是求解重构系数,每个样本点xi可以由它的邻居线性表示,即如下最优化问题:
这样可以得到每个样本点与它邻居节点之间的线性组合系数。接下来将这个组合系数当做已知量,求解下面的最优化问题完成向量投影:
这样可以得到向量y,这就是投影之后的向量。
LLE是一种无监督的机器学习算法,它是一种非线性降维算法,不能直接用于分类或者回归问题。
核心:将样本判定为后验概率最大的类
贝叶斯分类器直接用贝叶斯公式解决分类问题。假设样本的特征向量为x,类别标签为y,根据贝叶斯公式,样本属于每个类的条件概率(后验概率)为:
分母p(x)对所有类都是相同的,分类的规则是将样本归到后验概率最大的那个类,不需要计算准确的概率值,只需要知道属于哪个类的概率最大即可,这样可以忽略掉分母。分类器的判别函数为:
PCA
核心:向重构误差最小(方差最大)的方向做线性投影
PCA是一种数据降维和去除相关性的方法,它通过线性变换将向量投影到低维空间。对向量进行投影就是让向量左乘一个矩阵得到结果向量,这是线性代数中讲述的线性变换:
y = Wx
降维要确保的是在低维空间中的投影能很好的近似表达原始向量,即重构误差最小化。下图是主分量投影示意图:
线性鉴别分析的基本思想是通过线性投影来最小化同类样本间的差异,最大化不同类样本间的差异。具体做法是寻找一个向低维空间的投影矩阵W,样本的特征向量x经过投影之后得到的新向量:
y = Wx
同一类样投影后的结果向量差异尽可能小,不同类的样本差异尽可能大。直观来看,就是经过这个投影之后同一类的样本进来聚集在一起,不同类的样本尽可能离得远。下图是这种投影的示意图:
它实现了从向量x到向量y的映射。由于使用了非线性的激活函数f,这个函数是一个非线性函数。
神经网络训练时求解的问题不是凸优化问题。反向传播算法由多元复合函数求导的链式法则导出。
我们可以用将地球仪的三维球面地图投影为二维的平面地图来理解:
投影成平面地图后为:
在投影之前的地之后,还要保持这种相对远近关系。
等距映射是一种无监督学习算法,是一种非线性降维算法。
人工神经网络
核心:一个多层的复合函数
人工神经网络在本质上是一个多层的复合函数:
导言
浓缩就是精华。想要把书写厚很容易,想要写薄却非常难。现在已经有这么多经典的机器学习算法,如果能抓住它们的核心本质,无论是对于理解还是对于记忆都有很大的帮助,还能让你更可能通过面试。在本文中,SIGAI将用一句话来总结每种典型的机器学习算法,帮你抓住问题的本质,强化理解和记忆。下面我们就开始了。
贝叶斯分类器
LDA是有监督的机器学习算法,在计算过程中利用了样本标签值。这是一种判别模型,也是线性模型。LDA也不能直接用于分类和回归问题,要对降维后的向量进行分类还需要借助其他算法,如kNN。
LLE
核心:用一个样本点的邻居的线性组合近似重构这个样本,将样本投影到低维空间中后依然保持这种线性组合关系
局部线性嵌入(简称LLE)将高维数据投影到低维空间中,并保持数据点之间的局部线性关系。其核心思想是每个点都可以由与它相近的多个点的线性组合来近似,投影到低维空间之后要保持这种线性重构关系,并且有相同的重构系数。
在实现贝叶斯分类器时,需要知道每个类的条件概率分布p(x|y)即先验概率。一般假设样本服从正态分布。训练时确定先验概率分布的参数,一般用最大似然估计,即最大化对数似然函数。
贝叶斯分分类器是一种生成模型,可以处理多分类问题,是一种非线性模型。
决策树
核心:一组嵌套的判定规则
决策树在本质上是一组嵌套的if-else判定规则,从数学上看是分段常数函数,对应于用平行于坐标轴的平面对空间的划分。判定规则是人类处理很多问题时的常用方法,这些规则是我们通过经验总结出来的,而决策树的这些规则是通过训练样本自动学习得到的。下面是一棵简单的决策树以及它对空间的划分结果:
等距映射(流形学习)
核心:将样本投影到低维空间之后依然保持相对距离关系
等距映射使用了微分几何中测地线的思想,它希望数据在向低维空间映射之后能够保持流形上的测地线距离。所谓测地线,就是在地球表面上两点之间的最短距离对应的那条弧线。直观来看,就是投影到低维空间之后,还要保持相对距离关系,即投影之前距离远的点,投影之后还要远,投影之前相距近的点,投影之后还要近。
上图中特征向量是二维的,我们向一维空间即直线投影,投影后这些点位于直线上。在上面的图中有两类样本,通过向右上方的直线投影,两类样本被有效的分开了。绿色的样本投影之后位于直线的下半部分,红色的样本投影之后位于直线的上半部分。
训练时的优化目标是类间差异与类内差异的比值:
最后归结于求解矩阵的特征值与特征向量: