[情報] 1.8萬核心核彈!NV第1款5nm H100真身首曝

看板PC_Shopping (個人電腦購買)作者 (原廠打手 !!!)時間4年前 (2022/03/22 22:12), 編輯推噓11(12117)
留言30則, 7人參與, 4年前最新討論串1/1
今天晚上,NVIDIA GTC 2022春季開發者大會就將召開,黃仁勳也將發表主題演講 幾乎肯定會發布基於Hopper架構的新一代高性能計算GPU和相關產品。 就在最後時刻,H100加速計算卡的渲染圖曝光了: SXM樣式,整體異常緊湊,整個電路板幾乎滿滿的都是各種元器件,中間自然就是GH100核 心。 從渲染圖上可以清晰地看到8組GPC(圖形處理集群),事實上如果放大慢慢數,可以確認 144組SM 也就是對應18432個CUDA核心,相比於Ampere架構大核心GA100 6912個多出足足1.67倍。 當然,按慣例應該不會開啟所有核心,勢必要遮罩一部分以確保良品率。 而根據昨日消息,8組GPC中只有一組開啟3D圖形引擎,畢竟這是計算卡。 這也是NVIDIA第一個5nm工藝的GPU,仍然堅持單晶片設計,預計核心面積900平方毫米左 右 功耗可能達到500W,另外預計還有雙芯封裝的GH202。本次大會上 NVIDIA應該還會推出基於Hopper GH100核心的工作站、個人超級計算機等相關產品 甚至可能會公佈PCIe介面樣式的H100計算卡。 來源 https://news.mydrivers.com/1/821/821665.htm XF編譯 https://www.xfastest.com/thread-260262-1-1.html 先發表專業架構 老黃帥氣皮衣登場 老黃年事已高白髮蒼蒼 歲月催人老 -- http://i.imgur.com/JS7qgbp.png
RX VEGA 哪裡有16G VRAM 啪啪啪 https://www.ptt.cc/bbs/PC_Shopping/M.1501122468.A.2E6.html 說好的RXvega有16g的vram完全碾壓1080ti的11g -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 118.163.176.121 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/PC_Shopping/M.1647958327.A.606.html

03/22 22:42, 4年前 , 1F
鞭屍www
03/22 22:42, 1F

03/22 23:31, 4年前 , 2F
現在正在講H100
03/22 23:31, 2F

03/22 23:33, 4年前 , 3F
500w都可以烤肉了
03/22 23:33, 3F

03/23 00:03, 4年前 , 4F
4奈米. 謝謝
03/23 00:03, 4F

03/23 00:47, 4年前 , 5F
H是700瓦 2G才是500W
03/23 00:47, 5F

03/23 09:09, 4年前 , 6F
工你媽藝
03/23 09:09, 6F

03/23 09:27, 4年前 , 7F
標題錯惹 是4奈米
03/23 09:27, 7F

03/23 17:02, 4年前 , 8F
老黃的運算卡能不能達成他自己說的A
03/23 17:02, 8F

03/23 17:02, 4年前 , 9F
I算力每12個月增加一倍呢?
03/23 17:02, 9F

03/23 17:24, 4年前 , 10F
超過了吧~尤其是transformer ASIC
03/23 17:24, 10F

03/23 17:25, 4年前 , 11F
靠著in-network/ in-memory
03/23 17:25, 11F

03/23 17:26, 4年前 , 12F
未來上去的空間還有~大概還有三個
03/23 17:26, 12F

03/23 17:26, 4年前 , 13F
不過GPGPU可以算多種模型,ASIC只能
03/23 17:26, 13F

03/23 17:26, 4年前 , 14F
算特定的
03/23 17:26, 14F

03/23 17:27, 4年前 , 15F
世代的空間,12月一倍的評估可能
03/23 17:27, 15F

03/23 17:27, 4年前 , 16F
遠遠低估了,反而是intel 1000x
03/23 17:27, 16F

03/23 17:28, 4年前 , 17F
比較接近現實
03/23 17:28, 17F

03/23 17:32, 4年前 , 18F
i皇是希望靠architecture來達成1000
03/23 17:32, 18F

03/23 17:32, 4年前 , 19F
x的目標,包括架構改良和3D封裝
03/23 17:32, 19F

03/23 18:13, 4年前 , 20F
Coarse Grained Reconfigurable Arr
03/23 18:13, 20F

03/23 18:13, 4年前 , 21F
ay和in-memory晶片,不知何時能合在
03/23 18:13, 21F

03/23 18:13, 4年前 , 22F
一起做Heterogeneous Integration
03/23 18:13, 22F

03/23 22:11, 4年前 , 23F
1000x其實沒啥,20年前教科書就說
03/23 22:11, 23F

03/23 22:11, 4年前 , 24F
DRAM 慢 cache 1000x
03/23 22:11, 24F

03/23 22:12, 4年前 , 25F
現在基本上就是把瓶頸變成瓶身
03/23 22:12, 25F

03/23 22:15, 4年前 , 26F
讓平行化程度更高,overhead更小
03/23 22:15, 26F

03/23 22:16, 4年前 , 27F
ML隨便一個model都幾億個參數
03/23 22:16, 27F

03/23 22:17, 4年前 , 28F
幾百層在跑,這種可高度平行化的
03/23 22:17, 28F

03/23 22:17, 4年前 , 29F
東西,加速個一百萬倍都不用驚訝
03/23 22:17, 29F

03/24 18:22, 4年前 , 30F
依照老黃定律,2030就1000X了
03/24 18:22, 30F
文章代碼(AID): #1YETatO6 (PC_Shopping)
文章代碼(AID): #1YETatO6 (PC_Shopping)