討論串[問題] Precision-Recall curve
共 3 篇文章
首頁
上一頁
1
下一頁
尾頁

推噓1(1推 0噓 3→)留言4則,0人參與, 5年前最新作者disney82231 (小刀會序曲)時間5年前 (2019/05/17 22:56), 編輯資訊
1
0
0
內容預覽:
一般在二元分類下,我們可以用ROC下面積(即AUC)來判斷模型好壞. 但當資料不平衡情況下時,通常是畫Precision-Recall curve. 但是Precision-Recall curve有辦法計算出類似AUC的東西嗎?. 如果沒有辦法,單純用PR curve是不是無法比較模型好壞?. 我
(還有31個字)

推噓0(0推 0噓 1→)留言1則,0人參與, 5年前最新作者sxy67230 (charlesgg)時間5年前 (2019/05/18 09:44), 5年前編輯資訊
0
3
0
內容預覽:
工程上的解釋:. ROC在不平衡類上,TPR主要的影響就是正例,FPR則是負例,所以ROC本質上就是一個相對曲線的評估方法,所以其實正負例增加的分佈下,0.5的threshold在座標上也是相對移動,所以ROC很好判斷模型好壞標準,高於0.5就可以說他不錯。那我們求取他的AUC呢?其實物理意義就是我
(還有582個字)

推噓1(1推 0噓 13→)留言14則,0人參與, 5年前最新作者disney82231 (小刀會序曲)時間5年前 (2019/05/18 12:43), 編輯資訊
0
3
3
內容預覽:
大大你好,非常感謝你的回覆,講解的很清楚,. 但對於python sklearn的average percision我還是有些疑問. 在average percision documentation.中有一個例子為. import numpy as np. from sklearn.metrics
(還有491個字)
首頁
上一頁
1
下一頁
尾頁