Machine Learning
1、基础知识
1.1 机器学习方式
1.2 模型评估
1.2.1 错误率与精度
1.2.2 查准率与查全率
2、分类-基本算法
2.1 决策树
2.1.1 决策树的基本原理
2.1.2 决策树的三要素
2.1.3 决策树算法的优缺点
2.1.4 熵和信息增益的区别
2.1.5 剪枝处理的作用及策略
2.1.6 决策树算法-id3
2.1.7 决策树算法-c4.5
2.1.8 决策树算法-cart
3、分类-组合算法
3.1 集成学习概述
3.2 个体学习器
3.3 结合策略
3.4 Bagging和Boosting的联系与区别
3.5 Bagging
3.5.1 随机森林原理
3.6 Boosting
3.6.1 AdaBoost原理
-
+
游客
注册
登录
决策树算法的优缺点
## 1 优点 1. 易于理解,机理解释起来简单。 2. 可以用于小数据集。 3. 时间复杂度较小,为用于训练决策树的数据点的对数。 4. 可以处理数字和数据的类别。 5. 能够处理多输出的问题。 6. 对缺失值不敏感。 7. 可以处理不相关特征数据。 8. 效率高,决策树只需要一次构建,反复使用,每一次预测的最大计算次数不超过决策树的深度。 ## 2 缺点 1. 对连续性的字段比较难预测。 2. 容易出现过拟合。 3. 当类别太多时,错误可能就会增加的比较快。 4. 当处理关联性比较强的数据时表现得不是太好。 5. 对于各类别样本数量不一致的数据,在决策树当中,信息增益的结果偏向那些具有更多数值的特征。
ricear
2021年3月29日 21:49
©
BY-NC-ND(4.0)
转发文档
收藏文档
上一篇
下一篇
手机扫码
复制链接
手机扫一扫转发分享
复制链接
Markdown文件
分享
链接
类型
密码
更新密码