详解分类评价指标和回归评价指标以及Python代码实现


当前第2页 返回上一页

1.precision也常称为查准率,recall称为查全率
2.比较常用的是F1,

python3.6代码实现:

1

2

3

4

5

6

7

8

#调用sklearn库中的指标求解from sklearn import metricsfrom sklearn.metrics import precision_recall_curvefrom sklearn.metrics import average_precision_scorefrom sklearn.metrics import accuracy_score#给出分类结果y_pred = [0, 1, 0, 0]

y_true = [0, 1, 1, 1]

print("accuracy_score:", accuracy_score(y_true, y_pred))

print("precision_score:", metrics.precision_score(y_true, y_pred))

print("recall_score:", metrics.recall_score(y_true, y_pred))

print("f1_score:", metrics.f1_score(y_true, y_pred))

print("f0.5_score:", metrics.fbeta_score(y_true, y_pred, beta=0.5))

print("f2_score:", metrics.fbeta_score(y_true, y_pred, beta=2.0))

2.1.2 相关曲线-P-R曲线、ROC曲线及AUC值

1)P-R曲线
步骤:
1、从高到低将”score”值排序并依次作为阈值threshold;
2、对于每个阈值,”score”值大于或等于这个threshold的测试样本被认为正例,其他为负例。从而形成一组预测数。
eg.
这里写图片描述
将0.9作为阈值,则第1个测试样本为正例,2、3、4、5为负例
得到


预测为正例预测为负例总计
正例(score大于阈值)0.90.11
负例(score小于阈值)0.2+0.3+0.3+0.35 = 1.150.8+0.7+0.7+0.65 = 2.854
precision=

recall=

在阈值以下的部分,当作负例,则预测为负例的取值情况是正确预测值,即如果本身是正例,则取TP;如果本身是负例,则取TN,其都为预测分值。
python实现伪代码

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

#precision和recall的求法如上

#主要介绍一下python画图的库

import matplotlib.pyplot ad plt

#主要用于矩阵运算的库

import numpy as np#导入iris数据及训练见前一博文

...

#加入800个噪声特征,增加图像的复杂度

#将150*800的噪声特征矩阵与150*4的鸢尾花数据集列合并

X = np.c_[X, np.random.RandomState(0).randn(n_samples, 200*n_features)]

#计算precision,recall得到数组

for i in range(n_classes):

    #计算三类鸢尾花的评价指标, _作为临时的名称使用

    precision[i], recall[i], _ = precision_recall_curve(y_test[:, i], y_score[:,i])#plot作图plt.clf()

for i in range(n_classes):

    plt.plot(recall[i], precision[i])

plt.xlim([0.0, 1.0])

plt.ylim([0.0, 1.05])

plt.xlabel("Recall")

plt.ylabel("Precision")

plt.show()

将上述代码补充完整后得到鸢尾花数据集的P-R曲线
这里写图片描述
2)ROC曲线
横轴:假正例率 fp rate = FP / N
纵轴:真正例率 tp rate = TP / N
步骤:
1、从高到低将”score”值排序并依次作为阈值threshold;
2、对于每个阈值,”score”值大于或等于这个threshold的测试样本被认为正例,其他为负例。从而形成一组预测数。

同P-R曲线计算类似,不再赘述
鸢尾花数据集的ROC图像为
这里写图片描述
AUC(Area Under Curve)定义为ROC曲线下的面积
AUC值提供了分类器的一个整体数值。通常AUC越大,分类器更好,取值为[0, 1]

2.2、回归评价指标

1)可释方差得分
这里写图片描述
2)平均绝对误差 MAE (Mean absolute error)
这里写图片描述
3)均方差 MSE (Mean squared error)
这里写图片描述
这里写图片描述
4)logistics回归损失
这里写图片描述
5)一致性评价 - pearson相关系数法
这里写图片描述
python代码实现

1

2

3

4

from sklearn.metrics import log_loss

log_loss(y_true, y_pred)from scipy.stats import pearsonr

pearsonr(rater1, rater2)from sklearn.metrics import cohen_kappa_score

cohen_kappa_score(rater1, rater2)

以上就是详解分类评价指标和回归评价指标以及Python代码实现的详细内容,更多文章请关注木庄网络博客!!

返回前面的内容

相关阅读 >>

ubunto 搭建php环境

Python实现从序列中移除重复项且保持元素间顺序不变

Python中del函数的用法

Python flask是什么

Python方法重写是什么?如何重写父类方法?

collatz 序列、逗号代码、字符图网格

Python如何验证中心极限定理

如何改变 matplotlib 图像大小

Python web为什么不火

对于初学者如何理解 @classmethod 和@staticmethod

更多相关阅读请进入《Python》频道 >>




打赏

取消

感谢您的支持,我会继续努力的!

扫码支持
扫码打赏,您说多少就多少

打开支付宝扫一扫,即可进行扫码打赏哦

分享从这里开始,精彩与您同在

评论

管理员已关闭评论功能...