from sklearn.metrics import precision_score
from sklearn.metrics import recall_score
from sklearn.metrics import f1_score
from sklearn.metrics import confusion_matrix
y_true = [0, 1, 1, 0, 1, 1, 0, 1, 1, 1, 0, 0 ,1]
y_pred = [0, 1, 1, 0, 1, 1, 0, 1, 1, 1, 0, 1 ,1]
precision_score(y_true = y_true, y_pred = y_pred) # 0.88888888888888884
recall_score(y_true = y_true, y_pred = y_pred) # 1.0
f1_score(y_true = y_true, y_pred = y_pred) # 0.94117647058823528
confusion_matrix(y_true = y_true, y_pred = y_pred)
# array([[4, 1],
# [0, 8]])
查準率、查全率、F1、混淆矩陣
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。
相關(guān)閱讀更多精彩內(nèi)容
- 查準率、查全率和F1 差準率:P=TP/TP+FP (預(yù)測結(jié)果和真實結(jié)果都為正的樣本占總的預(yù)測結(jié)果為正的樣本的比例...
- 在機器學(xué)習(xí)中,對于一個模型的性能評估是必不可少的。準確率(Accuracy)、查準率(Precision)、查全率...
- 書接上文: 之前為什么說自己浮躁?因為連最基本的機器學(xué)習(xí)模型性能評估最基本的的查全率和查準率都搞不清楚,還妄想搞機...
- 在一個理想的世界里,我們的模型能夠給出完全準確的分類判斷,但事實是模型總是會出錯的。 All models are...