Machine Learning
1、基础知识
1.1 机器学习方式
1.2 模型评估
1.2.1 错误率与精度
1.2.2 查准率与查全率
2、分类-基本算法
2.1 决策树
2.1.1 决策树的基本原理
2.1.2 决策树的三要素
2.1.3 决策树算法的优缺点
2.1.4 熵和信息增益的区别
2.1.5 剪枝处理的作用及策略
2.1.6 决策树算法-id3
2.1.7 决策树算法-c4.5
2.1.8 决策树算法-cart
3、分类-组合算法
3.1 集成学习概述
3.2 个体学习器
3.3 结合策略
3.4 Bagging和Boosting的联系与区别
3.5 Bagging
3.5.1 随机森林原理
3.6 Boosting
3.6.1 AdaBoost原理
-
+
游客
注册
登录
决策树的三要素
一个决策树的生成主要分为以下三个部分: 1. **特征选择:** 从训练数据中众多的特征中选择一个特征作为当前节点的分裂标准,从而衍生出不同的决策树算法。 2. **决策树生成:** 根据选择的特征评估标准,从上至下递归生成子节点,直到数据集不可分则决策树停止生长。 3. **剪枝:** 决策树容易过拟合,一般来说需要进行剪枝来缩小树结构规模,缓解过拟合。剪枝技术有**预剪枝**和**后剪枝**两种。
ricear
2021年3月29日 18:59
©
BY-NC-ND(4.0)
转发文档
收藏文档
上一篇
下一篇
手机扫码
复制链接
手机扫一扫转发分享
复制链接
Markdown文件
分享
链接
类型
密码
更新密码