[問題] tensorflow Adam 學習率 decay ?
作業系統:win10
問題類別:DL optimizer
使用工具:tensorflow
問題內容:
在做訓練時有點在意learning rate的問題
所以特別去看了一下Adam到底有沒有做decay
原本paper上演算法上是有的
https://arxiv.org/pdf/1412.6980.pdf
Theorem 4.1
但是網路上的討論區寫到
在tensorflow裡似乎是沒有做decay的
或著說,只是做moment的調整而已
https://goo.gl/Z75bWK
想請教各位大神
在tensorflow裡的adam有沒有具備decay的功能?
還是須要自己弄個learning rate scheduling?
本版首PO
感謝各位解惑
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 61.220.183.232
※ 文章網址: https://www.ptt.cc/bbs/DataScience/M.1533802279.A.8F3.html
→
08/09 22:32,
6年前
, 1F
08/09 22:32, 1F
→
08/09 22:32,
6年前
, 2F
08/09 22:32, 2F
推
08/11 19:35,
6年前
, 3F
08/11 19:35, 3F
→
08/11 19:35,
6年前
, 4F
08/11 19:35, 4F
推
08/11 23:12,
6年前
, 5F
08/11 23:12, 5F
推
08/20 08:45,
6年前
, 6F
08/20 08:45, 6F
→
08/20 08:45,
6年前
, 7F
08/20 08:45, 7F
DataScience 近期熱門文章
PTT數位生活區 即時熱門文章