Rnn使用batch/layer normalization

看板DataScience作者 (bokxko1023)時間6年前 (2018/04/27 17:56), 編輯推噓0(001)
留言1則, 1人參與, 6年前最新討論串1/1
大家好,我最近用tensorflow做RNN,時間序列資料的預測時,想要加入batch normaliza tion,但又在網路上看到有些觀點是RNN不適合使用BN,不知道大家的看法是什麼呢? 至於在做batch normalization時,是應該在input之後馬上做嗎?如果想要放在rnn cell 的水平方向或是垂直方向,要怎麼寫呢? 另外發現tensorflow有做好的layer normalization,但是只有lstm的(tf.contrib.rnn.L ayerNormBasicLSTMCell),如果我沒有要用lstm,而是要用gru或是一般的rnn的話應該要 怎麼寫呢? 感謝各位! -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 140.113.136.219 ※ 文章網址: https://www.ptt.cc/bbs/DataScience/M.1524823014.A.BD5.html

05/10 08:41, 6年前 , 1F
我記得有幾篇文章都表示RNN+BN只會瘋狂overfit
05/10 08:41, 1F
文章代碼(AID): #1QulFclL (DataScience)
文章代碼(AID): #1QulFclL (DataScience)