[問題] 在convolution layer的dropout行為?

看板DataScience作者 (孔文革)時間6年前 (2018/04/29 15:36), 編輯推噓1(108)
留言9則, 2人參與, 6年前最新討論串1/1
請教在convolution layer 的dropout的方式是? 例如假設那層是64個(4,4) filter 那如果dropout設0.5 那是代表? 1. 64個filter隨機丟掉32個filter? 還是 2. 每個filter中的16個pixel隨機丟掉8個pixel? 謝謝 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 140.112.4.190 ※ 文章網址: https://www.ptt.cc/bbs/DataScience/M.1524987365.A.D4F.html

04/29 16:05, 6年前 , 1F
DROPOUT丟棄的機率是以單顆神經元來看的歐
04/29 16:05, 1F

04/29 16:06, 6年前 , 2F
所以嚴格來說應該是每張feature maps 的每個pixel
04/29 16:06, 2F

04/29 16:06, 6年前 , 3F
都有一半的機率訊息不會被往下傳遞
04/29 16:06, 3F

04/29 18:49, 6年前 , 4F
謝謝你,所以我可以理解為所有feature map都會被保留,但
04/29 18:49, 4F

04/29 18:49, 6年前 , 5F
是每個feature map都有缺角或挖空對嗎?
04/29 18:49, 5F

04/29 21:06, 6年前 , 6F
是的 在dnn裡加dropout相當於每個神經元有一定機率被
04/29 21:06, 6F

04/29 21:06, 6年前 , 7F
忽略 而cnn中每個pixel就相當於神經元
04/29 21:06, 7F

04/29 21:08, 6年前 , 8F
另外feature maps跟filter是不一樣的歐
04/29 21:08, 8F

04/30 15:32, 6年前 , 9F
謝謝你, feature map應該就是filter的輸出吧?
04/30 15:32, 9F
文章代碼(AID): #1QvNNbrF (DataScience)
文章代碼(AID): #1QvNNbrF (DataScience)