討論串[徵文] Self-Normalizing Neural Networks
共 4 篇文章
首頁
上一頁
1
下一頁
尾頁
內容預覽:
既然都報名了,所以就讀了。. 以下會用我自己的理解、用比較口頭的敘述,若用字不精確、還請見諒。. ----. arXiv: https://arxiv.org/abs/1706.02515. I. Abstract. Deep Learning 中有兩個很成功的 model,CNNs 在 visio
(還有6178個字)
內容預覽:
感謝MXNet大的詳細解說. 想請教MXNet. 我一直以來有個疑惑未明. 就是selu是make Feed-forward great again. 但是如果加在convolution layer也有self normalize的效果嗎?. 以這篇post的作者使用DCGAN的經驗來看. http
(還有476個字)
內容預覽:
簡答:我看完後,認為是 support 的。. 長的回答:. 關於數學上假設的部分,. 在論文中的第四頁的這段 "Deriving the Mean and Variance Mapping Function g". 裡面有提到,我們關心的是 z 的 distribution 的假設,. 即 兩個
(還有350個字)
內容預覽:
弱弱問一下,. selu可以搭配batch normalization嗎?. 我試了一下結果有點詭異,. 不太確定是我code寫錯還是selu不能加BN?. 再順便確認下selu放在residual networks是可以的嗎?. --. ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 111
(還有131個字)
首頁
上一頁
1
下一頁
尾頁