[問題] 請問CNN網路的dropout問題
問題類別:(ex:ML,SVM,RL,DL,RNN,CNN,NLP,BD,Vis,etc...)
CNN
問題內容:
想請問在CNN類別的架構中
就是前面convolution層接個幾層 然後後面接DNN接個幾層
這種架構下
如果要dropout來避免overfitting
應該是在DNN層做dropout比較好
還是CNN層做dropout比較好?
我自己嘗試了半天
實在是沒有甚麼好結論
請教各位前輩能否給點建議
謝謝了
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 119.14.42.199
※ 文章網址: https://www.ptt.cc/bbs/DataScience/M.1524076693.A.64A.html
推
04/19 04:33,
6年前
, 1F
04/19 04:33, 1F
→
04/19 04:33,
6年前
, 2F
04/19 04:33, 2F
謝謝,我會去找VGG來看,想再請問batch normalization跟dropout會互相衝突嗎?
因為就我理解,dropout是處理overfitting, 而batch normalization是處理train不起來
兩者的應用應該是不一樣的?
推
04/19 07:44,
6年前
, 3F
04/19 07:44, 3F
謝謝,我自己是覺得加在FC比較合理,因為感覺靠近output比較快收斂不動,應該用
dropout來讓其收斂更好
※ 編輯: Rprogramming (119.14.42.199), 04/20/2018 01:44:30
推
04/20 06:29,
6年前
, 4F
04/20 06:29, 4F
→
04/20 06:29,
6年前
, 5F
04/20 06:29, 5F
推
04/20 07:32,
6年前
, 6F
04/20 07:32, 6F
→
04/20 07:32,
6年前
, 7F
04/20 07:32, 7F
DataScience 近期熱門文章
PTT數位生活區 即時熱門文章