[問題] Loss 大震盪的原因 ?

看板DataScience作者 (叫我松高魂 ~~)時間5年前 (2019/12/16 02:09), 5年前編輯推噓1(101)
留言2則, 2人參與, 5年前最新討論串1/1
最近想用看看 Ranger optimizer 就用書上的一個比較簡單的例子來試試看 資料使用的是 Kaggle 的貓狗辨識然後簡單只使用貓狗前面各 2000 筆來做 ( 1000筆 training 500筆 validation 500筆 testing ) 利用簡單的 CNN 作為 model 詳細 code 如下 http://bit.ly/2PR5nSh 我的問題是,最後做出來的 Loss 震盪超級大,完全沒有收斂的現象 但是在 accuracy 上表現還算正常 我嘗試過調整 LR 到 0.000001 、也改過 optimizer ( adam 或是 rmsprop) 但都會是類似的現象 想請教前輩們,這樣的狀況可以怎麼做改善 ? -- Ο ο 。 ο ○ 。 ○ ° ° ο Ο -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 220.136.149.147 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/DataScience/M.1576433393.A.510.html ※ 編輯: sssh (220.136.149.147 臺灣), 12/16/2019 02:10:25

12/17 10:31, 5年前 , 1F
看起來是overfitting
12/17 10:31, 1F

12/17 11:38, 5年前 , 2F
加個batch normalize 我相信會好很多
12/17 11:38, 2F
文章代碼(AID): #1TzdRnKG (DataScience)
文章代碼(AID): #1TzdRnKG (DataScience)