[問題] GAN的Discriminator要加dropout嗎?

看板DataScience作者 (PY火炬)時間6年前 (2018/07/27 20:59), 編輯推噓3(3015)
留言18則, 5人參與, 6年前最新討論串1/1
最近想到一個問題 如果GAN的Discriminator前面用convolution後面用fully connected dense layer, 那後面要加dropout嗎? 如果不加,FC layer很容易overfitting 可是Discriminator如果overfitting會造成GAN怎樣? 一時想不通 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 111.71.72.70 ※ 文章網址: https://www.ptt.cc/bbs/DataScience/M.1532696394.A.4C0.html

07/27 22:36, 6年前 , 1F
Discriminator失效之後你Generator的結果就會很詭異,一
07/27 22:36, 1F

07/27 22:36, 6年前 , 2F
般從loss也能看出來
07/27 22:36, 2F

07/28 02:20, 6年前 , 3F
D overfitting, 會不會是對初期 G 的訓練還 OK, 但是
07/28 02:20, 3F

07/28 02:20, 6年前 , 4F
到了最後 G 有能力產生不錯的輸出時會被拉到跟看過的
07/28 02:20, 4F

07/28 02:20, 6年前 , 5F
real data 幾乎一樣,少了 “想像力”? 如果 D 不
07/28 02:20, 5F

07/28 02:20, 6年前 , 6F
難 train, 加上 dropout 應該是有幫住的。
07/28 02:20, 6F

07/28 02:25, 6年前 , 7F
挺好奇的 gan的想像力是指什麼呢
07/28 02:25, 7F

07/28 06:36, 6年前 , 8F
實際一點來說,在G能生成足夠真實的圖之前D就依特定少量fe
07/28 06:36, 8F

07/28 06:36, 6年前 , 9F
ature能判別real跟fake的話,G基本上就會直接往生成該feat
07/28 06:36, 9F

07/28 06:36, 6年前 , 10F
ure的方向前進
07/28 06:36, 10F

07/28 06:40, 6年前 , 11F
關鍵字請搜尋mode collapse,原則上只有數學,沒有所謂想
07/28 06:40, 11F

07/28 06:40, 6年前 , 12F
像力
07/28 06:40, 12F

07/28 09:36, 6年前 , 13F
嗯嗯 我知道mode collapse 只是我覺得gan還是畫不出資
07/28 09:36, 13F

07/28 09:36, 6年前 , 14F
料中沒有的東西 所以想像力用的挺妙的?
07/28 09:36, 14F

07/28 18:12, 6年前 , 15F
函數隨機產生的雜訊經過多次分類器訓練,能夠把產生雜訊的
07/28 18:12, 15F

07/28 18:13, 6年前 , 16F
分佈限定在我們想要的範圍內。
07/28 18:13, 16F

07/28 18:14, 6年前 , 17F
(我的理解是這樣,請問有錯嗎?)
07/28 18:14, 17F

07/28 20:22, 6年前 , 18F
應該說mapping到一個包含real data的space裡
07/28 20:22, 18F
文章代碼(AID): #1RMnTAJ0 (DataScience)
文章代碼(AID): #1RMnTAJ0 (DataScience)