討論串[問題] 請教關於Stochastic gradient descent
共 2 篇文章
首頁
上一頁
1
下一頁
尾頁
內容預覽:
請教關於stochastic gradient descent. 是不是batch size設越大越好? (只要在計算量 , 記憶體可負荷下)?. 我有時候mini-batch SGD train的起來. 有時候train不起來. 我在猜是不是因為我batch size設太小的原因?. 還是有可能是
(還有538個字)
內容預覽:
幾個想法提供參考. (1) "好"的比較. training error小? generalization ability強?. 收斂速度快? 運算時間少?. (2) GD 和 SGD之間的關係. 在 machine learning 中. gradient descent 或者說 Batch gr
(還有2138個字)
首頁
上一頁
1
下一頁
尾頁