[問題] WGAN的Loss

看板DataScience作者 (PY火炬)時間6年前 (2018/05/16 06:23), 編輯推噓2(201)
留言3則, 2人參與, 6年前最新討論串1/1
WGAN的loss 我看paper是Discriminator去 minimize 假的output -真的output 而generator是minimize -假的output 我看我train時generator的loss都是負很大 越train負越多 請問這樣是合理的嗎? -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 223.137.177.219 ※ 文章網址: https://www.ptt.cc/bbs/DataScience/M.1526423011.A.0B2.html

05/16 18:51, 6年前 , 1F
對,generator就是要騙discriminator給很高的分數,所以
05/16 18:51, 1F

05/16 18:51, 6年前 , 2F
加一個負號是maximum 分數的意思
05/16 18:51, 2F

05/16 20:02, 6年前 , 3F
有做weight clipping嗎
05/16 20:02, 3F
文章代碼(AID): #1Q-rtZ2o (DataScience)
文章代碼(AID): #1Q-rtZ2o (DataScience)