[麥書] 該直上16" M4 pro 還是M2 pro 就好?

看板MAC (蘋果Mac)作者 (YesOrNo)時間1月前 (2025/01/17 14:12), 編輯推噓17(17024)
留言41則, 17人參與, 3周前最新討論串1/1
目前用macbook air m1 想說用這麼久了想換16"用看看 用途是利用空暇時間 寫macOS iOS程式 或是 網頁 或許還會跑AI試試 電商16"m2 pro目前的價格在6萬內 跟16"m4 pro 官網版本差距有快三萬(84,900) 想問一下舊版跟新版差距大不大 不知道該不該直上m4 pro 想請教版友 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 36.224.86.9 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/MAC/M.1737094355.A.FB6.html

01/17 15:43, 1月前 , 1F
想玩 Ollama 的話看你偏好玩小模型還是大模型也想玩
01/17 15:43, 1F

01/17 15:46, 1月前 , 2F
ram 就愈大愈好啦,小模型且只是寫程式應該是沒差多少啦
01/17 15:46, 2F

01/17 16:47, 1月前 , 3F
M2 跟 M4 速度體感差很多, 尤其是多開應用的時候
01/17 16:47, 3F

01/17 16:48, 1月前 , 4F
我現在就是同時 M2 + M4 在用 XD
01/17 16:48, 4F

01/17 16:48, 1月前 , 5F
M2 是公司發的, 很容易讓我等待
01/17 16:48, 5F

01/17 17:37, 1月前 , 6F
差距蠻大的 但還是要看你的使用狀況
01/17 17:37, 6F

01/17 17:37, 1月前 , 7F
我想ram大小還是優先
01/17 17:37, 7F

01/17 17:44, 1月前 , 8F
直上
01/17 17:44, 8F

01/17 18:37, 1月前 , 9F
Ram要大
01/17 18:37, 9F

01/17 19:22, 1月前 , 10F
可以去蝦皮找找看有沒有保內的M2 max 64G
01/17 19:22, 10F

01/17 19:22, 1月前 , 11F
玩AI推理64G是很基本的
01/17 19:22, 11F

01/17 22:03, 1月前 , 12F
$77,300 原價 $84,900 :: 16 吋 MacBook Pro M4 Pro 可參
01/17 22:03, 12F

01/17 22:03, 1月前 , 13F
01/17 22:03, 13F

01/18 00:13, 1月前 , 14F
給你參考一下,我之前用 Mac Mini M2 Pro 32G Ram 跑 70b
01/18 00:13, 14F

01/18 00:13, 1月前 , 15F
模型,大概十分鐘跑不到十個字...
01/18 00:13, 15F

01/18 00:32, 1月前 , 16F
70b 45Gb左右,沒64g ram真的玩不起
01/18 00:32, 16F

01/18 00:33, 1月前 , 17F
直接串API吧,公司真機密資料看老闆要不要贊助
01/18 00:33, 17F

01/18 00:37, 1月前 , 18F
不過剛測試 32b(19GB) 的速度還算可接受
01/18 00:37, 18F

01/18 00:39, 1月前 , 19F
ollama用壓縮過的模型應該能省一點空間?
01/18 00:39, 19F

01/18 02:19, 1月前 , 20F
剛測試了跑個 40b(23GB) 的就有點喘了,需要重開機才能跑
01/18 02:19, 20F

01/18 09:34, 1月前 , 21F
好的 參考一下
01/18 09:34, 21F

01/18 14:01, 1月前 , 22F
有錢想玩就直上,要不然不如不買,買一半那種最浪費
01/18 14:01, 22F

01/18 14:01, 1月前 , 23F
花了一筆錢,然後又得不到想要的效果,白花
01/18 14:01, 23F

01/19 00:24, 1月前 , 24F
推樓上,之前就是買了一個不上不下的規格用的很有疙瘩
01/19 00:24, 24F

01/19 11:05, 1月前 , 25F
好奇,就算ram滿足讀取大模型的需求,不過回應速度能
01/19 11:05, 25F

01/19 11:05, 1月前 , 26F
夠滿足即時性嗎?感覺每秒token數會很低
01/19 11:05, 26F

01/19 18:02, 1月前 , 27F
推 jacklin2002
01/19 18:02, 27F

01/19 18:20, 1月前 , 28F
目前影響模型性能的應該都是記憶體頻寬問題 尤其是
01/19 18:20, 28F

01/19 18:20, 1月前 , 29F
不夠用然後用到swap的時候
01/19 18:20, 29F

01/19 18:20, 1月前 , 30F
純推理時的計算性能應該都夠用了
01/19 18:20, 30F

01/20 20:19, 1月前 , 31F
Mac跑模型就是用時間來換記憶體容量,要快要打只有老
01/20 20:19, 31F

01/20 20:19, 1月前 , 32F
黃啊,之前看評測M4 Pro 回應token每秒就11-13左右
01/20 20:19, 32F

01/21 14:40, 1月前 , 33F
量化的模型在不同VRAM大小佔用GPU/CPU的資源天差地遠
01/21 14:40, 33F

01/21 22:01, 1月前 , 34F
Jh大可以解釋一下,我不太懂為什麼相同量化模型在不同
01/21 22:01, 34F

01/21 22:01, 1月前 , 35F
的vram下,CPU/GPU會有不同嗎?
01/21 22:01, 35F

01/26 03:26, 3周前 , 36F
16 吋 MacBook Pro M1 Pro 全新未拆47000
01/26 03:26, 36F

01/27 21:04, 3周前 , 37F
那種壓縮方式並不是無損的 損失部分有不可控的副作用
01/27 21:04, 37F

01/27 21:07, 3周前 , 38F
同一個量化模型用CPU或用GPU執行的指令集與精度不一樣
01/27 21:07, 38F

01/27 21:09, 3周前 , 39F
排列組合產出的結果品質就是天差地遠當然其中差距就是
01/27 21:09, 39F

01/27 21:13, 3周前 , 40F
需要相當的背景知識去調整執行程序甚至是調整訓練方法
01/27 21:13, 40F

01/27 21:26, 3周前 , 41F
可能要查一下訓練模型的機房規模有多大心裡才會有概念
01/27 21:26, 41F
文章代碼(AID): #1dYVJJ-s (MAC)
文章代碼(AID): #1dYVJJ-s (MAC)