实习点滴(11)--TensorFlow快速计算“多分类问题”的混淆矩阵以及精确率、召回率、F1值、准确率
来源:互联网 发布:jquery与js的区别 编辑:程序博客网 时间:2024/06/07 17:42
在机器学习中,我们会利用一些指标(混淆矩阵、精确率、召回率、F1值、准确率)来判断我们模型的好坏,从而改进优化模型。下面介绍如何在TensorFlow下快速计算这些指标。
1、混淆矩阵
confusion_matrix = tf.contrib.metrics.confusion_matrix(labels_pred_all, labels_all, num_classes=None, dtype=tf.int32, name=None, weights=None) confusion_matrix = sess.run(confusion_matrix)
因为第一步所计算出来的混淆矩阵是一个Tensor,所以需要进行转换。
具体api详解:
https://haosdent.gitbooks.io/tensorflow-document/content/api_docs/python/contrib.metrics.html#confusion_matrix
值得注意的是:所计算出来的混淆矩阵,列是真实值(也就是期望值),行是预测值
2、四大指标:
有了混淆矩阵,计算四大指标就好办了。
accu = [0,0,0,0,0] column = [0,0,0,0,0] line = [0,0,0,0,0] accuracy = 0 recall = 0 precision = 0 for i in range(0,5): accu[i] = confusion_matrix[i][i] for i in range(0,5): for j in range(0,5): column[i]+=confusion_matrix[j][i] for i in range(0,5): for j in range(0,5): line[i]+=confusion_matrix[i][j] for i in range(0,5): accuracy += float(accu[i])/len_labels_all for i in range(0,5): if column[i] != 0: recall+=float(accu[i])/column[i] recall = recall / 5 for i in range(0,5): if line[i] != 0: precision+=float(accu[i])/line[i] precision = precision / 5 f1_score = (2 * (precision * recall)) / (precision + recall)
阅读全文
1 0
- 实习点滴(11)--TensorFlow快速计算“多分类问题”的混淆矩阵以及精确率、召回率、F1值、准确率
- 准确率,精确率,召回率以及f1
- 分类问题的精确率和召回率 (准确率)
- 准确率、精确率、召回率、f1
- 准确率、召回率、F1
- 准确率、召回率、F1
- 准确率、召回率、F1
- 准确率召回率以及F1(模型评估方法)
- 准确率,召回率和F1值
- 模型评价指标——精确率,准确率,召回率,F1值
- 精确率 召回率 F1值 准确率 ROC曲线 AUC评价指标
- 机器学习基础(五十三)—— 精确率与召回率(多分类问题精确率和召回率的计算)
- Recall/Precision(召回率/准确率)以及F1-measure
- 使用LogisticRegression和SGDClassifier对良/恶性肿瘤进行分类,并计算出准确率召回率和F1的值
- 精确率 召回率 F1(详细)
- 准确率/精确率/召回率
- 准确率-精确率-召回率
- 机器学习中分类器的评价指标:召回率(recall), 精度(precision), 准确率(accuracy), F1分数(F1-score)
- C#---DataGridView 控件
- 全面理解Java泛型
- 表格转json
- 【国象AI】评估函数(一)
- HttpClient 获取网络数据
- 实习点滴(11)--TensorFlow快速计算“多分类问题”的混淆矩阵以及精确率、召回率、F1值、准确率
- python——django使用mysql数据库(一)
- Palette的简单使用
- 基于Struts2的文件上传
- Java集合----HashSet的实现原理
- IDEA 导入多个Module,多个Module在同一个Project 下显示
- Java中的23种设计模式
- python里面对文件的读写操作
- 机器学习之Logistic回归(五)