转载自 https://blog.csdn.net/program_developer/article/details/103330758
目录:
- GBDT多分类算法
1.1 Softmax回归的对数损失函数
1.2 GBDT多分类原理 - GBDT多分类算法实例
- 手撕GBDT多分类算法
3.1 用Python3实现GBDT多分类算法
3.2 用sklearn实现GBDT多分类算法 - 总结
- Reference
本文的主要内容概览:
1. GBDT多分类算法
1.1 Softmax回归的对数损失函数
当使用逻辑回归处理多标签的分类问题时,如果一个样本只对应于一个标签,我们可以假设每个样本属于不同标签的概率服从于几何分布,使用多项逻辑回归(Softmax Regression)来进行分类:
P(Y=yi∣x)=hθ(x)⎡⎣⎢⎢⎢⎢⎢⎢⎢P(Y=1∣x;θ)P(Y=2∣x;θ)...P(Y=k∣x;θ)⎤⎦⎥⎥⎥⎥⎥⎥⎥=1∑kj=1eθTjx⎡⎣⎢⎢⎢⎢⎢⎢⎢eθT1xeθT2x...eθTkx⎤⎦⎥⎥⎥⎥⎥⎥⎥P(Y=yi∣x)=hθ(x)[P(Y=1∣x;θ)P(Y=2∣x;θ)...P(Y=k∣x;θ)]=1∑j=1keθjTx[eθ1Txeθ2Tx...eθkTx]P(Y=yi∣x)=hθ(x)⎣⎢⎢⎢⎢⎢⎢⎡P(Y=1∣x;θ)P(Y=2∣x;θ)...P(Y=k∣x;θ)⎦⎥⎥⎥⎥⎥⎥⎤=∑j=1keθjTx1⎣⎢⎢⎢⎢⎢⎢⎡eθ1Txeθ2Tx...eθkTx⎦⎥⎥⎥⎥⎥⎥⎤
标签:yi,...,分类,算法,GBDT,深入,theta 来源: https://blog.csdn.net/fang156239305/article/details/104121805
本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享; 2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关; 3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关; 4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除; 5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。