ICode9

精准搜索请尝试: 精确搜索
首页 > 编程语言> 文章详细

【原创手写笔记】面试准备,关于Adaboost & GBDT算法你需要知道的那些

2021-04-10 17:51:50  阅读:272  来源: 互联网

标签:集成 笔记 学习 算法 GBDT Adaboost 手写


导读



上一份笔记在介绍决策树的过程中我们提到了“决策树是许多集成学习算法的基础算法”。那么,什么是集成学习算法、集成学习算法有哪几种、它们彼此之间有什么区别、集成学习算法合起来性能一定会超过基础学习器吗?在接下来的几份笔记中,我们将会针对几种集成学习算法针对高频问题做推导和解答。
这份笔记将首先针对Adaboost和GBDT算法进行介绍,Adaboost和GBDT算法都属于集成学习中采用Boosting策略的算法,Boosting策略的本质思想就是通过高度相关的弱学习器,在每一轮的迭代重逐渐减小偏差。细分来看,Adaboost和GBDT算法对于减小偏差的方式各有不同:Adaboost算法的核心是权重的调整:Adaboost在迭代中依据学习器每一轮的表现,调整样本权重和弱学习器权重,最终将多个弱学习器累加成一个强学习器。
GBDT (Gradient Boosting Decision Tree) 梯度提升树的核心在于残差的拟合:GBDT用损失函数的负梯度作为残差的估计值,使用CART回归是依据均方差进行拟合。
如果你刚刚接触集成学习算法,你可能会有如下疑惑:

  • Adaboost和随机森林有什么区别?

  • GBDT和Adaboost如何实现分类和回归?

  • GBDT和Adaboost有什么区别和联系?

  • GBDT如何应对过拟合?

  • 在实际使用中,GBDT为什么在高维稀疏特征的数据集上表现较差?

  • ...


这份笔记将会从个人的理解对这些问题进行推导和解答,如有疏漏,感谢提出~



笔记



图片图片图片图片图片




记得备注呦


图片


标签:集成,笔记,学习,算法,GBDT,Adaboost,手写
来源: https://blog.51cto.com/u_15127535/2697904

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有