知道TPR与FPR
- TPR=TP/(TP + FN)
- 所有真实类别为1的样本中,预测类别为1的比例
- FPR =FP/(FP +TN)
- 所有真实类别为0的样本中,预测类别为1的比例
ROC曲线
- ROC曲线的横轴就是FPRate,纵轴就是TPRate,当二者相等时,表示的意义则是:对于不论真实类别是1还是0的样本,分类器预测为1的概率是相等的,此时 AUC为0.5。
AUC指标
- AUC的概率意义是随机取一对正负样本,正样本得分大于负样本的概率
- AUC的最小值为0.5,最大值为1,取值越高越好
- AUC=1,完美分类器,采用这个预测模型时,不管设定什么值都能得出完美预测。绝大多数预测的场合,不存在完美分类器。
- 0.5<AUC<1,优于随机猜测。这个分类器(模型)妥善设定值的话,能有预测价值。
最终AUC的范围在[0.5,1]之间,并且越接近1越好
AUC计算API
- from sklearn.metrics import roc_auc_score
- sklearn.metrics.roc_auc_score(y_true, y_score)
- 计算ROC曲线面积,即AUC值
- y_true:每个样本的真实类别,必须为0(反例),1(正例)标记
- y_score:预测得分,可以是正类的估计概率、置信值或者分类器方法的返回值
- sklearn.metrics.roc_auc_score(y_true, y_score)
//0.5~1之间,越接近于1约好
y_test =np.where(y_test>2.5,1,0)
print("AUC指标:",roc_auc_score(y_test, lr.predict(x_test)))
总结
- AUC只能用来评价二分类
- AUC非常适合评价样本不平衡中的分类器性能