概念介绍
相关(Relevant),正类 | 无关(NonRelevant),负类 | |
被检索到(Retrieved) | true positives(TP 正类判定为正类,例子中就是正确的判定"这位是女生") | false positives(FP 负类判定为正类,"存伪",例子中就是分明是男生却判断为女生,当下伪娘横行,这个错常有人犯) |
未被检索到(Not Retrieved) | false negatives(FN 正类判定为负类,"去真",例子中就是,分明是女生,这哥们却判断为男生--梁山伯同学犯的错就是这个) | true negatives(TN 负类判定为负类,也就是一个男生被判断为男生,像我这样的纯爷们一准儿就会在此处) |
“精确率”与“召回率”的关系
于是就需要F1-Measure这个根据准确率Precision和召回率Recall二者给出的一个综合的评价指标了。
F1-Measure
P精确率(Precision)与R召回率(Recall) 任何一个太大或太小都会造成F1较小,所以只有P,R两者都较大的时候才能获得较大的F1。
ROC曲线
举例
预测
|
||||
1
|
合计
|
|||
实际
|
1
|
True Positive(TP)
|
False Negative(FN)
|
Actual Positive(TP+FN)
|
False Positive(FP)
|
True Negative(TN)
|
Actual Negative(FP+TN)
|
||
合计
|
Predicted Positive(TP+FP)
|
Predicted Negative(FN+TN)
|
TP+FP+FN+TN
|
Percentile
|
实例数
|
正例数
|
1-特异度(%)
|
敏感度(%)
|
10
|
6180
|
4879
|
2.73
|
34.64
|
20
|
6180
|
2804
|
9.80
|
54.55
|
30
|
6180
|
2165
|
18.22
|
69.92
|
40
|
6180
|
1506
|
28.01
|
80.62
|
50
|
6180
|
987
|
38.90
|
87.62
|
60
|
6180
|
529
|
50.74
|
91.38
|
70
|
6180
|
365
|
62.93
|
93.97
|
80
|
6180
|
294
|
75.26
|
96.06
|
90
|
6180
|
297
|
87.59
|
98.17
|
100
|
6177
|
258
|
100.00
|
100.00
|
用ROC curve来表示分类器的performance很直观好用。可是,人们总是希望能有一个数值来标志分类器的好坏。于是Area Under roc Curve(AUC)就出现了。顾名思义,AUC的值就是处于ROC curve下方的那部分面积的大小。通常,AUC的值介于0.5到1.0之间,较大的AUC代表了较好的performance。
计算ROC curve的AUC值的代码可以在这找到。
[1]. 准确率(accuracy),精确率(Precision),召回率(Recall)和F1-Measure .argcv .2013-1-15 [引用日期2014-05-3] .
[2]. 李航 .统计学习方法 .北京 :清华大学出版社 ,2012 .
[3]. 召回率与准确率 .博客园 [引用日期2013-04-15] .
[4]. Evaluation of clustering .斯坦福大学自然语言处理实验室网站 [引用日期2013-04-20] .
[5]. ROC曲线(受试者工作特征曲线)分析详解 .
[6]. http://baike.baidu.com/view/5615830.htm 百度百科 精确率,召回率定义
[7]. http://baike.baidu.com/view/42249.htm 百度百科 ROC曲线定义
[8]. http://blog.sciencenet.cn/blog-454498-546131.html AUC 定义