标签:xi 机器 分类器 算法 Adaboost alpha hat partial
- 什么是Adaboost?
AdaBoost算法: 通过迭代弱分类器而产生最终的强分类器的算法,可以理解为在弱分类器之上增加了权重配置,使误差率小的分类器拥有更高的权重。
文章目录
我们已经学习过
决策树
这种分类器,并且知道可以通过随机森林
的方式完成样本加权、分类器加权,从而使得由弱分类器
得到强分类器
。Adaboost
就是分类器加权的一种方式,即多个分类器的集成。提升概念
提升算法
- 预测值:F(xi),实际值:yi,二者差值就是一个残差
- 将所有残差累加:
当L(F)=m1i=1∑m(F(xi)−yi)2
∂F∂L=m21=i∑m(F(xi)−yi)- 实际的损失函数不见得是这个,所以称为
伪残差
参照牛顿法(梯度下降法)可知,使用一阶导绕不过去的γ学习率。
树 | 1 | 2 | 3 | … | t-1 |
---|---|---|---|---|---|
T | T1(x) | T2(x) | T3(x) | … | Tt−1(x) |
权值 | α1 | α2 | α3 | … | αt−1 |
计算第i个样本的预测值yi,输入样本xi:
xi⟶α1T1(xi)+α2T2(xi)+α3T3(xi)+...+αt−1Tt−1(xi)=y^i
样本 | 预测值 |
---|---|
x(1) | y^t−1(1) |
x(2) | y^t−1(2) |
x(3) | y^t−1(3) |
… | … |
x(m) | y^t−1(m) |
在已知样本和预测值T(t−1),y^(t−1)的前提下,如何算T(x)和αt。考虑使用二阶导信息。
∂ft∂J=i=1∑n(gi+hift(xi))+∂ft∂Ω
Adaboost
通常em<0.5,em越小,αm越大。谁的误差率越小,谁的权值就越大。(em=0.5→αm=0)
有了wm+1,i,就可以算Gm+1,就可以算wm+2…
举例
Adaboost误差上限
AdaBoost总结
不可描述的两脚兽 发布了45 篇原创文章 · 获赞 2 · 访问量 1万+ 私信 关注标签:xi,机器,分类器,算法,Adaboost,alpha,hat,partial 来源: https://blog.csdn.net/qq_22096121/article/details/104437087
本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享; 2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关; 3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关; 4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除; 5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。