[討論] 有人XGboost裝GPU版本的嗎?

看板DataScience作者 (Jason)時間6年前 (2018/03/16 06:18), 6年前編輯推噓3(3019)
留言22則, 6人參與, 6年前最新討論串1/1
桃園早安 衝個人氣 請問版上板上有人Extreme Boostings裝GPU版本的嗎? 昨天要裝發現設定好麻煩 有人裝好了變超級霹靂無敵強嗎? -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 180.217.147.227 ※ 文章網址: https://www.ptt.cc/bbs/DataScience/M.1521152318.A.0D6.html

03/16 09:02, 6年前 , 1F
我忘了.. 不過微軟的lightgbm GPU滿好裝的,也快不
03/16 09:02, 1F

03/16 09:02, 6年前 , 2F
03/16 09:02, 2F

03/17 08:48, 6年前 , 3F
lightgbm超級霹靂無敵快 不過我跑的時候大致上都輸
03/17 08:48, 3F

03/17 08:49, 6年前 , 4F
xgboost一點 不過值得注意的是類似的方法我跑最強
03/17 08:49, 4F

03/17 08:50, 6年前 , 5F
的是scikit-learn的gbrt XD 本來想拿來當base-line QQ
03/17 08:50, 5F
看來必須裝了 小問題是我的GPU只有8G,恐怕跑不了大數據,並且scikit-learn好像 也吞不下大數據,不知道大大們怎麼解決

03/17 14:58, 6年前 , 6F
對了我說的輸是performance輸 速度上lightgbm屌打
03/17 14:58, 6F

03/17 14:58, 6年前 , 7F
吃不下可以分批讀啊XD
03/17 14:58, 7F

03/17 15:29, 6年前 , 8F
哈哈 謝謝 請問分批讀進GPU訓練有範例教程嗎
03/17 15:29, 8F

03/17 16:23, 6年前 , 9F
我講的不是什麼高級方法啦 比如不要一次讀全部資料到
03/17 16:23, 9F

03/17 16:23, 6年前 , 10F
記憶體裡 讀一部分訓練完再讀另一部份訓練這樣 然後
03/17 16:23, 10F

03/17 16:23, 6年前 , 11F
與時間無關就記得把shuffle做好這樣 我倒是不清楚有
03/17 16:23, 11F

03/17 16:23, 6年前 , 12F
沒有把這部分聰明解決的方法@@
03/17 16:23, 12F

03/17 17:08, 6年前 , 13F
好喔 謝謝 我再研究看看
03/17 17:08, 13F

03/21 07:28, 6年前 , 14F
CPU夠多的話,XGB GPU版大概跟LGB CPU差不多快
03/21 07:28, 14F

03/21 07:31, 6年前 , 15F
LGB CPU nthread=16時大致上會跟XGB GPU差不多
03/21 07:31, 15F

03/21 07:32, 6年前 , 16F
CPU不夠多的話就不一定了
03/21 07:32, 16F

03/21 18:04, 6年前 , 17F
我印象中lgb在單一cpu速度已經明顯勝過xgb了說@@
03/21 18:04, 17F

03/21 18:05, 6年前 , 18F
不過lgb是在後面收斂的時候會很快就結束每個pass
03/21 18:05, 18F

03/21 18:05, 6年前 , 19F
所以可能前期差不多吧
03/21 18:05, 19F
※ 編輯: matlabking (140.116.20.65), 03/26/2018 22:31:09

03/27 10:58, 6年前 , 20F
最近裝了 XGB-GPU 版本, 超級快阿阿阿
03/27 10:58, 20F

03/27 10:58, 6年前 , 21F
不過 ram 是個問題 沒控制好就直接死給你看
03/27 10:58, 21F

04/28 11:26, 6年前 , 22F
想請問以下記憶體設定要怎麼設呢?
04/28 11:26, 22F
文章代碼(AID): #1Qgl4-3M (DataScience)
文章代碼(AID): #1Qgl4-3M (DataScience)