You can not select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.

35 lines
1.1 KiB

This file contains ambiguous Unicode characters!

This file contains ambiguous Unicode characters that may be confused with others in your current locale. If your use case is intentional and legitimate, you can safely ignore this warning. Use the Escape button to highlight these characters.

# 8.提升方法——三个臭皮匠,顶个诸葛亮
boosting
多个弱分类器组合
### 知识树
Knowledge tree
![1620201500519](assets/1620201500519.png)
### 提升方法
Boosting
- 基本思路:
- 将弱可学习算法提升为强可学习算法
- 其中提升方法是集成学习的一种
- 集成学习两个主要类别
- 序列方法
- 并行方法
Adaboost算法
- 解决分类问题 y ∈ [-1,+1]
- 在训练数据上训练得到模型,查看模型在整体数据和单个数据的分类效果
- 在整体数据上分类效果较好,则该模型在最后的模型中占较大比例,反之。
- 比如有5个小模型预测一个数据是正1或者负1但是不同模型的整体效果不一样好的模型乘以更大的概率最后再全部求和的sigmoid得出是正1还是负1
- 在单个数据上分类效果较好,那么在训练下个模型时调小单个数据的权值,反之。
- 在上面过程迭代N次之后直到最后的分类结果达到预期目标。将所有的模型组合得到强可学习模型。