随机森林算法的原理优点和主要参数
合集下载
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
随机森林算法的原理优点和主要参数随机森林算法的原理优点是:
1、特征和数据的随机抽样
(1)它可以处理很多高维度(特征很多)的数据,并且不用降维,无需做特征选择;
(2)如果有很大一部分的特征遗失,仍可以潍柴准确度;
(3)不容易过拟合;
2、树模型的特性
(1)较好的解释性和鲁棒性;
(2)能够自动发现特征间的高阶关系;
(3)不需要对数据进行特殊的预处理如归一化;
3、算法结构
(1)训练速度比较快,容易做成并行方法;
(2)实现起来比较简单。
随机森林算法的主要参数是:
1、n_estimators:决策树的个数,越多越好,但也不能太多。
2、criterion:决策树支持的标准是”gini”(gini系数)
or“entropy”(熵值)(default=”gini”)。
3、max_depth:树的最大深度。
4、min_samples_split:根据属性划分节点时,每个划分最少的样本数。
5、min_samples_leaf:叶子节点最少的样本数。