随机森林算法的原理优点和主要参数

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

随机森林算法的原理优点和主要参数随机森林算法的原理优点是:
1、特征和数据的随机抽样
(1)它可以处理很多高维度(特征很多)的数据,并且不用降维,无需做特征选择;
(2)如果有很大一部分的特征遗失,仍可以潍柴准确度;
(3)不容易过拟合;
2、树模型的特性
(1)较好的解释性和鲁棒性;
(2)能够自动发现特征间的高阶关系;
(3)不需要对数据进行特殊的预处理如归一化;
3、算法结构
(1)训练速度比较快,容易做成并行方法;
(2)实现起来比较简单。

随机森林算法的主要参数是:
1、n_estimators:决策树的个数,越多越好,但也不能太多。

2、criterion:决策树支持的标准是”gini”(gini系数)
or“entropy”(熵值)(default=”gini”)。

3、max_depth:树的最大深度。

4、min_samples_split:根据属性划分节点时,每个划分最少的样本数。

5、min_samples_leaf:叶子节点最少的样本数。

相关文档
最新文档