[問題] GAN訓練時batch的實作請教

看板DataScience作者 (PY火炬)時間6年前 (2018/05/22 19:35), 6年前編輯推噓1(109)
留言10則, 2人參與, 6年前最新討論串1/2 (看更多)
我最近新手上路實作GAN,採用的架構是DCGAN paper寫DCGAN訓練時batch size 128 我不是很明白batch size在送進discriminator訓練時怎麼做? 例如是128個亂數送進generator產生128張圖片 再加上128張真實的圖片送進discriminator 嗎? 這樣一次完整訓練裡面, 總共是256張圖片送進discriminator訓練 但只有128張圖片送進generator訓練嗎? 對於GAN,我不是很明白,先謝謝各位的幫忙 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 111.71.0.182 ※ 文章網址: https://www.ptt.cc/bbs/DataScience/M.1526988928.A.4CA.html

05/22 21:09, 6年前 , 1F
有謠言是說一個batch裡都放同一種label比較好,所以這個ca
05/22 21:09, 1F

05/22 21:09, 6年前 , 2F
se就是兩個batch,128個1以及128個0
05/22 21:09, 2F
那好像是因為有batch normalize的關係?

05/22 22:48, 6年前 , 3F
通常會用相同數目的real image跟fake image去訓練
05/22 22:48, 3F

05/22 22:50, 6年前 , 4F
直接參考的實作預設是用64+64
05/22 22:50, 4F
謝謝回答,想再請問這64張假的image是在同一個training step由訓練Generator產生的128個image取64張丟進Discriminator嗎? 還是generator再重新產生64張假的image? ※ 編輯: PyTorch (114.136.86.37), 05/22/2018 23:31:57

05/23 00:33, 6年前 , 5F
直接亂數64個latent產生64個fake image進discriminator
05/23 00:33, 5F

05/23 00:36, 6年前 , 6F
不用重新產生 直接用同一組去算兩個的loss function
05/23 00:36, 6F

05/23 00:38, 6年前 , 7F
G是64個input D是128個input 不過其實這些你都可以調整
05/23 00:38, 7F

05/23 00:39, 6年前 , 8F
但我以前測試最需要調整的是learning rate
05/23 00:39, 8F

05/23 00:39, 6年前 , 9F
batch size反而還好
05/23 00:39, 9F

05/23 00:49, 6年前 , 10F
話說pytorch github example裡面就有DCGAN啊 XD
05/23 00:49, 10F
文章代碼(AID): #1R1020JA (DataScience)
文章代碼(AID): #1R1020JA (DataScience)