討論串[問題] Precision-Recall curve
共 3 篇文章
首頁
上一頁
1
下一頁
尾頁
內容預覽:
一般在二元分類下,我們可以用ROC下面積(即AUC)來判斷模型好壞. 但當資料不平衡情況下時,通常是畫Precision-Recall curve. 但是Precision-Recall curve有辦法計算出類似AUC的東西嗎?. 如果沒有辦法,單純用PR curve是不是無法比較模型好壞?. 我
(還有31個字)
內容預覽:
工程上的解釋:. ROC在不平衡類上,TPR主要的影響就是正例,FPR則是負例,所以ROC本質上就是一個相對曲線的評估方法,所以其實正負例增加的分佈下,0.5的threshold在座標上也是相對移動,所以ROC很好判斷模型好壞標準,高於0.5就可以說他不錯。那我們求取他的AUC呢?其實物理意義就是我
(還有582個字)
內容預覽:
大大你好,非常感謝你的回覆,講解的很清楚,. 但對於python sklearn的average percision我還是有些疑問. 在average percision documentation.中有一個例子為. import numpy as np. from sklearn.metrics
(還有491個字)
首頁
上一頁
1
下一頁
尾頁