ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

【机器学习笔记】第9章:模型评估指标

2020-03-09 15:09:33  阅读:304  来源: 互联网

标签:yi xi frac 模型 笔记 cost TP 1m 评估


文章目录

第9章:模型评估指标

9.1 数据集划分方法

在此评估方法中,我们假设测试样本也是从样本真实分布中独立同分布采样而得。

留出法(hold-out):将数据集划分为两个互斥的子集,一般要采用若干次随机划分、重复进行实验评估后取平均值作为评估结果。一般将大约2/34/52/3\sim4/52/3∼4/5的样本用于训练,剩余样本用于测试。

交叉验证法(cross validation):将数据集划分为kkk个大小相似的互斥子集,每次选择k1k-1k−1个子集作为训练集,剩余111个作为测试集,最后取kkk组测试结果的平均值。kkk最常用的取值是10,此时称为10折交叉验证。

自助法(bootstrapping):对数据集DDD进行有放回重复采样,采样m次,得到数据集DD'D′作为训练集,通过取极限可得DDD中约有36.8%的样本未出现在DDD中,所以可将这部分作为测试集。自助法产生的数据改变了初始的数据分布,这会引入估计偏差。

9.2 模型性能度量

针对回归问题的结果,对模型进行评估,通常有有以下几种方法:

  1. 均方误差MSE
  2. 均方根误差RMSE
  3. 平均绝对误差MAE

针对分类问题的结果,对模型进行评估,通常有以下几种方法:

  1. 错误率 / 精度(Accuracy)
  2. 准确率(查准率,Precision)/ 召回率(查全率,Recall)
  3. P-R曲线 / F1度量 / FβF_\betaFβ​度量
  4. ROC曲线 / AUC(最常用)
  5. 代价曲线

9.2.1 回归问题评估指标

名称 公式
均方误差MSE(mean squared error) 1mi=1m(f(xi)yi)2\frac{1}{m}\sum_{i=1}^m(f(x_i)-y_i)^2m1​∑i=1m​(f(xi​)−yi​)2
均方根误差RMSE(root mean squared error) 1mi=1m(f(xi)yi)2\sqrt{\frac{1}{m}\sum_{i=1}^m(f(x_i)-y_i)^2}m1​∑i=1m​(f(xi​)−yi​)2
平均绝对误差MAE(mean absolute error) 1mi=1mf(xi)yi\frac{1}{m}\sum_{i=1}^m\vert f(x_i)-y_i\vertm1​∑i=1m​∣f(xi​)−yi​∣

9.2.2 分类问题评估指标

错误率 是分类错误的样本数占样本总数的比例。
精度 则是分类正确的样本数占样本总数的比例。

名称 公式
错误率 1mi=1mI(f(xi)yi)\frac{1}{m}\sum_{i=1}^mI(f(x_i)≠y_i)m1​∑i=1m​I(f(xi​)​=yi​)
精度(Accuracy) 1mi=1mI(f(xi)=yi)\frac{1}{m}\sum_{i=1}^mI(f(x_i)=y_i)m1​∑i=1m​I(f(xi​)=yi​)

我们将准确率记为P,召回率记为R,通过下面的混淆矩阵我们有
在这里插入图片描述
其中,TP(true positive),FP(false positive),FN(false negative),TN(true negative)。

准确率(查准率,Precision)是预测结果为正类的样本中实际为正类的比例。
召回率(查全率,Recall)是实际结果为正类的样本中预测为正类的比例。
F1度量是综合考虑Precision和Recall的指标。
FβF_\betaFβ​度量能表达出对查准率、查全率的不同偏好,β>1\beta>1β>1时对查全率有更大的影响,β<1\beta<1β<1时对查准率有更大的影响。

名称 公式
准确率(查准率,Precision) P=TPTP+FPP=\frac{TP}{TP+FP}P=TP+FPTP​
召回率(查全率,Recall) R=TPTP+FNR=\frac{TP}{TP+FN}R=TP+FNTP​
F1-score F1=2×P×RP+RF1=\frac{2×P×R}{P+R}F1=P+R2×P×R​
Fβ-score Fβ=(1+β2)×P×R(β2×P)+RF_\beta=\frac{(1+\beta^2)×P×R}{(\beta^2×P)+R}Fβ​=(β2×P)+R(1+β2)×P×R​

P-R曲线是以召回率R为横轴,准确率P为纵轴,然后根据模型的预测结果对样本进行排序,把最有可能是正样本的个体排在前面,而后面的则是模型认为最不可能为正例的样本,再按此顺序逐个把样本作为正例进行预测并计算出当前的准确率和召回率得到的曲线。

在这里插入图片描述

ROC曲线(Receiver Operating Characteristic)则是以假正例率FPR为横轴,真正例率TPR为纵轴。其中FPR=FPTN+FPFPR=\frac{FP}{TN+FP}FPR=TN+FPFP​TPR=TPTP+FNTPR=\frac{TP}{TP+FN}TPR=TP+FNTP​我们可以看到真正例率与召回率是一样的,那么ROC曲线图如下图所示:
在这里插入图片描述
AUC(Area Under ROC Curve)定义为ROC曲线下的面积,面积越大,模型性能越好:AUC=12i=1m1(xi+1xi)(yi+yi+1)AUC=\frac{1}{2}\sum_{i=1}^{m-1}(x_{i+1}-x_i)⋅(y_i+y_{i+1})AUC=21​i=1∑m−1​(xi+1​−xi​)⋅(yi​+yi+1​)

不同类型的错误产生的代价不同,可使用非均等代价(unequal cost):
在这里插入图片描述
代价敏感错误率定义为:e=1m(xiD+I(f(xi)yi)×cost01+xiDI(f(xi)yi)×cost10)e=\frac{1}{m}(\sum_{x_i\in D^+}I(f(x_i)≠y_i)×cost_{01}+\sum_{x_i\in D^-}I(f(x_i)≠y_i)×cost_{10})e=m1​(xi​∈D+∑​I(f(xi​)​=yi​)×cost01​+xi​∈D−∑​I(f(xi​)​=yi​)×cost10​)由于在非均等代价下,ROC曲线并不能反映出模型的期望总体代价,因此引入了代价曲线,其中横轴为正例概率代价,纵轴为归一化代价。
正例概率代价计算方式为:P(+)cost=p×cost01p×cost01+(1p)×cost10P(+)cost=\frac{p×cost_{01}}{p×cost_{01}+(1-p)×cost_{10}}P(+)cost=p×cost01​+(1−p)×cost10​p×cost01​​

归一化代价计算方式为:costnorm=FNR×p×cost01+FPR×(1p)×cost10p×cost01+(1p)×cost10cost_{norm}=\frac{FNR×p×cost_{01}+FPR×(1-p)×cost_{10}}{p×cost_{01}+(1-p)×cost_{10}}costnorm​=p×cost01​+(1−p)×cost10​FNR×p×cost01​+FPR×(1−p)×cost10​​其中,ppp是正类的概率。
ROC曲线上面每一点对应代价平面上的一条线段,所有线段下的面积表示了该条件下的期望总体代价:在这里插入图片描述

标签:yi,xi,frac,模型,笔记,cost,TP,1m,评估
来源: https://blog.csdn.net/qq_45474860/article/details/104750003

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有