[菜單] 45K AI測試機

看板PC_Shopping (個人電腦購買)作者 (ncufalcon)時間4月前 (2024/06/25 15:41), 4月前編輯推噓3(4119)
留言24則, 7人參與, 4月前最新討論串1/1
已買/未買/已付訂金(元):未買 預算/用途: 預算45K,用於測試Olama +RAG模組,鎖定4070。因為是以顯卡 為主,其他的就依照預算搭配CPU。因為要跑Windows平台,記憶體預計買64G ;SSD也想分成兩個,一個系統,一個放LLM+RAG CPU (中央處理器):AMD【6核】Ryzen5 7500F 3.7GHz(Turbo 5.0GHz)/ ZEN4/6C12T/快取32MB/65W/無外盒/含散熱器/代理商三年 MB (主機板):【重磅價】華碩 DUAL-RTX4070-O12G+華碩 TUF GAMING B650-E WIFI+WD_BLACK SN850X 1TB+EVGA 850 G6 RAM (記憶體):十銓 TEAM T-CREATE EXPERT DDR5-6000 64G(32G*2)-黑 (CL34/支援XMP&EXPO) VGA (顯示卡):同重磅 ooler (散熱器):【救贖】Sinya 欣亞 S200TG 玻璃透側機殼+Thermalright 利民 Peerless Assassin 120 絕雙刺客 SSD (固態硬碟):Solidigm P44 Pro 1TB/M.2 PCIe Gen4/讀:7000M/ 寫:6500M/五年保固 (雙散熱片) HDD (硬碟):無 PSU (電源供應器):同重磅 CHASSIS (機殼):同救贖 MONITOR (螢幕):沿用 Mouse/KB (鼠鍵):沿用 OS (作業系統):自備 其它 (自填): 總價 (未稅/含稅):44929 沒有特殊品牌洗好,第二個SSD只是選擇有帶散熱片,寫入速度不錯的。 請各位先進指點,是否還有可以修改的 謝謝大家 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 1.171.103.113 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/PC_Shopping/M.1719301297.A.F33.html

06/25 15:43, 4月前 , 1F
要64G怎麼不組126K+DDR4
06/25 15:43, 1F
您是說intel 12600K嗎? 我不知道AMD的差異,當然也可以換

06/25 15:44, 4月前 , 2F
然後你說鎖定4070 結果買4070S..?
06/25 15:44, 2F

06/25 15:44, 4月前 , 3F
跑AI不買大VRAM的4060ti 16G嗎
06/25 15:44, 3F
回o大,因為以TFLOPS數據來看,跑LLM方面,4070還是比4060系列好一點 請參考國外網站比較 https://reurl.cc/ezlZoj ※ 編輯: ncufalcon (1.171.103.113 臺灣), 06/25/2024 15:55:48

06/25 15:54, 4月前 , 4F
要大ram去組ddr4吧,現在d5 64g太貴
06/25 15:54, 4F

06/25 15:55, 4月前 , 5F
顯卡挑五年保的
06/25 15:55, 5F

06/25 15:57, 4月前 , 6F
記憶體價錢少一半 你顯卡可以上super
06/25 15:57, 6F

06/25 15:57, 4月前 , 7F
AM5不能用ddr4 所以要換intel
06/25 15:57, 7F

06/25 15:59, 4月前 , 8F
70/70S跑起來一定比4060ti強 但VRAM不夠
06/25 15:59, 8F

06/25 15:59, 4月前 , 9F
就是不夠
06/25 15:59, 9F

06/25 16:01, 4月前 , 10F
哥,llama3:8b 就要16G vram
06/25 16:01, 10F

06/25 16:01, 4月前 , 11F
您跑LLM 要直接略過llama3 嗎?
06/25 16:01, 11F

06/25 16:02, 4月前 , 12F
像上面o大說的,這不是速度問題是門檻
06/25 16:02, 12F

06/25 16:03, 4月前 , 13F
我的怎麼才4.7gb..
06/25 16:03, 13F

06/25 16:03, 4月前 , 14F
還是您先買4070s 然後發現跑不動了
06/25 16:03, 14F

06/25 16:03, 4月前 , 15F
我去二手版等您xd
06/25 16:03, 15F

06/25 16:12, 4月前 , 16F
樓上c大,您試試在ollama 下這個指令
06/25 16:12, 16F

06/25 16:12, 4月前 , 17F
ollama run llama3:8b-text-fp16
06/25 16:12, 17F

06/25 16:12, 4月前 , 18F
看還是不是 4.7gb
06/25 16:12, 18F

06/25 16:18, 4月前 , 19F
VRAM不夠的情況你模型放不進去效能再
06/25 16:18, 19F

06/25 16:18, 4月前 , 20F
好都白搭吧 除非你要調整精度
06/25 16:18, 20F

06/25 16:36, 4月前 , 21F
我4060Ti-16G有試 llama3,超~~慢的
06/25 16:36, 21F

06/25 16:37, 4月前 , 22F
所以現在還是繼續用ChatGPT= =
06/25 16:37, 22F

06/26 06:50, 4月前 , 23F
跑車速度肯定比卡車快,但你貨物放不進去有
06/26 06:50, 23F

06/26 06:50, 4月前 , 24F
屁用
06/26 06:50, 24F
文章代碼(AID): #1cUdInyp (PC_Shopping)
文章代碼(AID): #1cUdInyp (PC_Shopping)