[問題] 請問深度學習rtx 2080和2070會差很多嗎

看板DataScience作者 (原野放肆)時間5年前 (2019/08/04 22:05), 5年前編輯推噓11(11013)
留言24則, 9人參與, 5年前最新討論串1/1
作業系統: win10 (ex:mac,win10,win8,win7,linux,etc...) 問題類別: RL,DL,Rnn,cnn (ex:ML,SVM,RL,DL,RNN,CNN,NLP,BD,Vis,etc...) 使用工具: python,tensortflow (ex:python,Java,C++,tensorflow,keras,MATLAB,etc...) 問題內容: 最近要組電腦 需求是用在深度學習和遊戲 遊戲2070不會順的話 2080也不會順到哪 所以2070就夠 但深度學習就不確定要挑rtx2080或2070 想問2080和2070會差很大嗎? 如果以運算長度來看 可以省幾倍的時間? -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 223.136.141.249 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/DataScience/M.1564927531.A.B20.html

08/04 22:37, 5年前 , 1F
差異沒到非常大那種,看你的需求就是了,有成本考量我是
08/04 22:37, 1F
需求就是想縮短運算時間,我看國外測試resnet-50的結論,有時差8% 有時差20%,8%的 話我可能就選2070了,20%可以考慮2080

08/04 22:37, 5年前 , 2F
覺得rtx 2060會比較適合普通人,2070其實售價有點偏高,
08/04 22:37, 2F
因為網路上說至少要8g,差別蠻明顯,不然我也想買2060就好

08/04 22:37, 5年前 , 3F
除非你有在打競賽高配才比較適合有時間壓力的任務。
08/04 22:37, 3F
還沒有到那麼專業

08/04 22:39, 5年前 , 4F
當然也可以選擇一張適合玩遊戲的,如果只是學生想學習
08/04 22:39, 4F

08/04 22:39, 5年前 , 5F
使用,可以使用免費的colab。
08/04 22:39, 5F

08/04 22:45, 5年前 , 6F
當然有財力的話,買越高當然越爽,泰坦下去可以一直爽就
08/04 22:45, 6F

08/04 22:45, 5年前 , 7F
是了
08/04 22:45, 7F
※ 編輯: daniem1314 (223.136.141.249 臺灣), 08/04/2019 23:08:52

08/04 23:49, 5年前 , 8F
我覺得大一點的VRAM還是蠻有必要的 至少看到好玩的論文
08/04 23:49, 8F

08/04 23:49, 5年前 , 9F
不會東西塞不進去
08/04 23:49, 9F
是地,所以才把最低需求定在2070 ※ 編輯: daniem1314 (223.136.141.249 臺灣), 08/05/2019 00:24:42

08/05 01:22, 5年前 , 10F
11g vram才是重點 寧願找二手1080ti
08/05 01:22, 10F
rtx好像有加成的效果,執行上可以超越11g

08/05 02:11, 5年前 , 11F
還是選大vram的吧 要是我會貼上80ti
08/05 02:11, 11F
所以同樣是8g的2080和2070,差距真的不大囉~ ※ 編輯: daniem1314 (223.136.141.249 臺灣), 08/05/2019 07:36:11

08/05 07:58, 5年前 , 12F
同樣規格下真的差距不大,我猜你看到差很多的是2080ti,
08/05 07:58, 12F
2080ti是差更多,但好奇運算時間上差多少?

08/05 07:58, 5年前 , 13F
但是你有需求到ti級別,全部組好七萬跑不掉。
08/05 07:58, 13F
好貴喔,應該沒辦法

08/05 10:25, 5年前 , 14F
你可以參考新的2060super 8g ram
08/05 10:25, 14F

08/05 10:25, 5年前 , 15F
剛好2060也快買不到了
08/05 10:25, 15F

08/05 10:26, 5年前 , 16F
或2070 super
08/05 10:26, 16F
※ 編輯: daniem1314 (223.137.80.114 臺灣), 08/05/2019 11:17:19

08/05 14:59, 5年前 , 17F
2080Ti和1080Ti小弟這邊做實驗試起來大概速度差20% ~ 30%
08/05 14:59, 17F
是否用fp16去跑?

08/05 15:02, 5年前 , 18F
基本上如果是跑運算,建議還是能找11g Vram的卡最好
08/05 15:02, 18F

08/05 15:05, 5年前 , 19F
減少cuda單元的影響遠比減少記憶體的影響少得多
08/05 15:05, 19F
哈哈~那我可以安心用2070了,因為2080ti價差太大,加上2080入手價便宜,所以才列入 考量,目前看來遊戲和深度學習上差別可能不大。但好一點gpu節省的時間是一直疊加上 去,最終還是會變得值得,只是時間長短的問題,這樣觀念對嗎?

08/05 15:08, 5年前 , 20F
因為較大的Vram可以減少從主記憶體搬資料的次數
08/05 15:08, 20F
vram是真的有用,有爬文看到8gb要算256*256還無法運算(或是最大只能256*256)

08/05 15:09, 5年前 , 21F
也比較不會有model塞爆記憶體的問題,所以能找11G就找11G
08/05 15:09, 21F
※ 編輯: daniem1314 (223.137.205.58 臺灣), 08/05/2019 22:30:20

08/09 17:04, 5年前 , 22F
怎麼不考慮2060s 也8G
08/09 17:04, 22F
2060super剛出,加上2070跳水,兩個價格一模一樣,2070性能還是好一點,遊戲大概多5 幀,深度同樣8g沒差別,只是使用率會低一點,市面上清完2070就不會出了吧。我實測發 現,根本只用到gpu的vram,gpu 只有5-10%在跑,效能不是最大的因素,反而cpu和ram都 跑到5x-7x%。 ※ 編輯: daniem1314 (114.136.133.8 臺灣), 08/10/2019 10:23:36

08/11 22:37, 5年前 , 23F
gpu使用率太低可能要檢查一下 訓練時不太可能5~10% @@
08/11 22:37, 23F
是我看的檢測程式不對,win10的只會低於10%,用gpu-z都是85~100%在跑 ※ 編輯: daniem1314 (223.136.118.75 臺灣), 08/12/2019 17:26:51

09/05 19:33, 5年前 , 24F
工作管理員預設顯示不是cuda使用律啊
09/05 19:33, 24F
文章代碼(AID): #1THkOhiW (DataScience)
文章代碼(AID): #1THkOhiW (DataScience)