[問題] GAN的discriminator要train比較多次理由

看板DataScience作者 (PY火炬)時間6年前 (2018/08/24 18:50), 編輯推噓1(107)
留言8則, 4人參與, 6年前最新討論串1/1
作業系統:(ex:mac,win10,win8,win7,linux,etc...) 問題類別:(ex:ML,SVM,RL,DL,RNN,CNN,NLP,BD,Vis,etc...) GAN generative adversail networks 使用工具:(ex:python,Java,C++,tensorflow,keras,MATLAB,etc...) keras 問題內容: 之前有看過WGAN的discriminator要train 5次 相比generator只train一次 當初是想說WGAN的discriminator本來就被弱化 所以train比較多次合理 但是我翻Goodfellow那篇原本GAN的paper裡面就有寫道discrimintor可以train比generat 多次 這我就不懂了, discriminator原本就容易因為train太好導致gradient vanish讓generator 學不起來 還反而要train discriminator比較多次? 這樣不是更容易把discrimintor train到acc 100% ? 有沒有人可以指點一下其中的原因 謝謝各位 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 140.112.25.100 ※ 文章網址: https://www.ptt.cc/bbs/DataScience/M.1535107838.A.644.html

08/24 22:31, 6年前 , 1F
經驗法則,先試出效果,再想道理解釋,GAN的基本套路
08/24 22:31, 1F

08/31 08:11, 6年前 , 2F
我看過train 10次的...
08/31 08:11, 2F

09/05 21:37, 6年前 , 3F
因為Discriminator的learning rate比較低吧,所以要tr
09/05 21:37, 3F

09/05 21:37, 6年前 , 4F
ain比較多次,科學的說法可能是Discriminator的loss s
09/05 21:37, 4F

09/05 21:37, 6年前 , 5F
urface比較崎嶇起伏
09/05 21:37, 5F

09/05 23:31, 6年前 , 6F
D的learning rate比較低??不是都隨便設的ㄇ
09/05 23:31, 6F

09/05 23:53, 6年前 , 7F
我看github上都是D的lr比G低耶,可能我看得不夠多
09/05 23:53, 7F

09/05 23:54, 6年前 , 8F
不過周遭同學也是把D設比較低才train起來
09/05 23:54, 8F
文章代碼(AID): #1RV-B-P4 (DataScience)
文章代碼(AID): #1RV-B-P4 (DataScience)