討論串[徵文] Self-Normalizing Neural Networks
共 4 篇文章
首頁
上一頁
1
下一頁
尾頁

推噓14(14推 0噓 4→)留言18則,0人參與, 6年前最新作者MXNet (MXNet)時間6年前 (2018/07/09 01:02), 編輯資訊
0
0
2
內容預覽:
既然都報名了,所以就讀了。. 以下會用我自己的理解、用比較口頭的敘述,若用字不精確、還請見諒。. ----. arXiv: https://arxiv.org/abs/1706.02515. I. Abstract. Deep Learning 中有兩個很成功的 model,CNNs 在 visio
(還有6178個字)

推噓0(0推 0噓 0→)留言0則,0人參與, 最新作者PyTorch (PY火炬)時間6年前 (2018/07/09 13:45), 6年前編輯資訊
1
0
1
內容預覽:
感謝MXNet大的詳細解說. 想請教MXNet. 我一直以來有個疑惑未明. 就是selu是make Feed-forward great again. 但是如果加在convolution layer也有self normalize的效果嗎?. 以這篇post的作者使用DCGAN的經驗來看. http
(還有476個字)

推噓3(3推 0噓 2→)留言5則,0人參與, 6年前最新作者MXNet (MXNet)時間6年前 (2018/07/09 16:53), 編輯資訊
0
0
1
內容預覽:
簡答:我看完後,認為是 support 的。. 長的回答:. 關於數學上假設的部分,. 在論文中的第四頁的這段 "Deriving the Mean and Variance Mapping Function g". 裡面有提到,我們關心的是 z 的 distribution 的假設,. 即 兩個
(還有350個字)

推噓1(1推 0噓 2→)留言3則,0人參與, 6年前最新作者PyTorch (PY火炬)時間6年前 (2018/09/19 10:03), 6年前編輯資訊
0
0
0
內容預覽:
弱弱問一下,. selu可以搭配batch normalization嗎?. 我試了一下結果有點詭異,. 不太確定是我code寫錯還是selu不能加BN?. 再順便確認下selu放在residual networks是可以的嗎?. --. 發信站: 批踢踢實業坊(ptt.cc), 來自: 111
(還有131個字)
首頁
上一頁
1
下一頁
尾頁