[問題] Conjugate Gradient Method in optim

看板R_Language作者 (principal component QQ)時間9年前 (2016/11/14 15:23), 編輯推噓0(000)
留言0則, 0人參與, 最新討論串1/2 (看更多)
[問題類型]: 程式諮詢(我想用R 做某件事情,但是我不知道要怎麼用R 寫出來) [軟體熟悉度]: 入門(寫過其他程式,只是對語法不熟悉) [問題敘述]: 我想自己練習寫一個Nonlinear Conjugate Gradient Method,可是我參考文獻 http://www.cs.cmu.edu/%7Equake-papers/painless-conjugate-gradient.pdf 中的 "52頁 B4-table" 所寫的程式碼卻跟R內建optim找到的不一樣, 很明顯不是最小值,試了很久還是不懂哪裡出問題,我把我的程式貼在下面。 我想寫出來的程式是想跟optim一樣只需要 Input 函數 起始點 迭代次數 誤差 就可以 output 一個解使得函數是local min 我使用numDeriv套件找到該點的 梯度 跟 hessian [程式範例]: http://ideone.com/xCSQ8s [環境敘述]: R version 3.3.2 (2016-10-31) [關鍵字]: nonlinear conjugate gradient for minimization 感謝大家的指導跟建議 這真的好困難QQ -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 1.200.224.102 ※ 文章網址: https://www.ptt.cc/bbs/R_Language/M.1479108227.A.C2E.html
文章代碼(AID): #1OAMQ3mk (R_Language)
文章代碼(AID): #1OAMQ3mk (R_Language)