[問題] GAN的discriminator要train比較多次理由
作業系統:(ex:mac,win10,win8,win7,linux,etc...)
問題類別:(ex:ML,SVM,RL,DL,RNN,CNN,NLP,BD,Vis,etc...)
GAN generative adversail networks
使用工具:(ex:python,Java,C++,tensorflow,keras,MATLAB,etc...)
keras
問題內容:
之前有看過WGAN的discriminator要train 5次 相比generator只train一次
當初是想說WGAN的discriminator本來就被弱化 所以train比較多次合理
但是我翻Goodfellow那篇原本GAN的paper裡面就有寫道discrimintor可以train比generat
多次
這我就不懂了, discriminator原本就容易因為train太好導致gradient vanish讓generator
學不起來
還反而要train discriminator比較多次?
這樣不是更容易把discrimintor train到acc 100% ?
有沒有人可以指點一下其中的原因
謝謝各位
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 140.112.25.100
※ 文章網址: https://www.ptt.cc/bbs/DataScience/M.1535107838.A.644.html
→
08/24 22:31,
6年前
, 1F
08/24 22:31, 1F
→
08/31 08:11,
6年前
, 2F
08/31 08:11, 2F
推
09/05 21:37,
6年前
, 3F
09/05 21:37, 3F
→
09/05 21:37,
6年前
, 4F
09/05 21:37, 4F
→
09/05 21:37,
6年前
, 5F
09/05 21:37, 5F
→
09/05 23:31,
6年前
, 6F
09/05 23:31, 6F
→
09/05 23:53,
6年前
, 7F
09/05 23:53, 7F
→
09/05 23:54,
6年前
, 8F
09/05 23:54, 8F
DataScience 近期熱門文章
PTT數位生活區 即時熱門文章
-4
30