關於使用機器學習於grasp detection的評估方式已刪文

看板DataScience作者 (nj882033)時間5年前 (2019/07/06 14:21), 編輯推噓0(000)
留言0則, 0人參與, 最新討論串1/1
如標題, 找不到相關板可以詢問,若有違規請告知,我再處理。 目前我是用機器學習來回歸物體的夾取框,但看到許多論文的比較表中,在image-wise與object-wise比較有些不懂。 目前我的理解如下 : image-wise : 測試集的物體出現在訓練集過,但擺放的位置與角度不同。 object-wise : 測試集的物體沒出現在訓練集中。 不知以上的理解是否錯誤,若有誤請大大指正。 還有比較的accuracy,有些論文寫grasp detection accuracy與prediction accuracy,不知三種說法是不是指同樣的東西? 並且accuracy該如何計算? 論文上只寫著同時滿足夾取框與GT的IOU大於0.25與角度小於30度,不知該如何計算,是指假設100個結果有90個滿足兩個條件,accuracy就是90%,還是這邊的的accuracy是指滿足後計算IOU的accuracy=(tp+tn)/(tp+tn+fp+fn)? 小弟是實驗室中第一年做機器手臂的,沒有學長姐可以問,只能來這邊,各位前輩了! 手機排版,可能有些凌亂,抱歉~ ----- Sent from JPTT on my Asus ASUS_Z012DA. -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 42.77.3.161 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/DataScience/M.1562394116.A.82C.html
文章代碼(AID): #1T83u4Wi (DataScience)
文章代碼(AID): #1T83u4Wi (DataScience)