玩弄放荡人妇系列av在线网站,日韩黄片,人人妻人人添人人爽,欧美一区,日本一区二区三区在线 |观看,日本免费a级毛一片

您當前的位置: 首頁 > 新聞 > 其他

188GB顯存 800W功耗!NVIDIA發(fā)布H100 NVL加速卡:ChatGPT提速2倍

來源:快科技 編輯:非小米 時間:2023-03-22 16:51人閱讀

ChatGPT作為當下最火爆的AI應用,之所以能達到如此“聰明”的程度,背后離不開海量的訓練,離不開強大的算力,使用的是NVIDIA A100加速計算卡。

GTC 2023春季技術大會上,NVIDIA又發(fā)布了頂級的H100 NVL,它是已有H100系列的特殊加強版,專為大型語言模型(LLM)進行優(yōu)化,是部署ChatGPT等應用的理想平臺。

H100 NVL單卡具備多達94GB HBM3高帶寬顯存(內(nèi)存),照此容量看顯然是開啟了完整的6144-bit位寬,并啟用了全部六顆,等效頻率按照5.1GHz計算的話,帶寬就是恐怖的3.9GB/s。

但也有個問題,六顆HBM3顯存總?cè)萘繎撌?6GB,但是這里少了2GB,官方?jīng)]有解釋,猜測還是出于良品率考慮,屏蔽了少數(shù)存儲單元。

相比之下,H100 PCIe/SXM版本都只開啟了5120-bit位寬,六個顯存位只使用五個,容量均為80GB,區(qū)別在于一個是HBM2e 2TB/s帶寬,一個是HBM3 3.35TB/s帶寬。

188GB顯存!NVIDIA發(fā)布H100 NVL加速卡:ChatGPT提速2倍

H100 NVL還可以雙卡組成一個計算節(jié)點,彼此通過PCIe 5.0總線互連,總顯存容量就是188GB,總顯存帶寬7.8TB/s,NVLink帶寬600GB/s,總功耗可達700-800W。

計算性能相當于H100 SXM的整整兩倍,意味著也開啟了全部16896個CUDA核心、528個Tensor核心,其中FP64雙精度浮點性能64TFlops,F(xiàn)P32單精度浮點性能134TFlops。

再加上Transformer引擎加速的輔佐,在數(shù)據(jù)中心規(guī)模,H100 NVL與上一代A100相比,GPT-3上的推理性能提高了多達12倍。

H100 NVL將在今年下半年開始出貨,價格……盡情想象去吧。

188GB顯存!NVIDIA發(fā)布H100 NVL加速卡:ChatGPT提速2倍

188GB顯存!NVIDIA發(fā)布H100 NVL加速卡:ChatGPT提速2倍

值得一提的是,NVIDIA還同時推出了其他兩套推理平臺:

NVIDIA L4:

適用于AI視頻,性能比CPU高出120倍,能效提高99,提供強大的的視頻解碼和轉(zhuǎn)碼能力、視頻流式傳輸、增強現(xiàn)實、生成式AI視頻等。

NVIDIA L40:

適用于圖像生成,針對圖形以及AI支持的2D、視頻和3D圖像生成進行了優(yōu)化,與上一代產(chǎn)品相比,Stable Diffusion推理性能提高7倍,Omniverse性能提高12倍。

順帶一提,CPU、GPU二合一的NVIDIA Grace Hopper適用于圖形推薦模型、矢量數(shù)據(jù)庫、圖神經(jīng)網(wǎng)絡,通過NVLink-C2C 900GB/s帶寬連接CPU和GPU,數(shù)據(jù)傳輸和查詢速度比PCIe 5.0快了7倍。

188GB顯存!NVIDIA發(fā)布H100 NVL加速卡:ChatGPT提速2倍

本站所有文章、數(shù)據(jù)、圖片均來自互聯(lián)網(wǎng),一切版權均歸源網(wǎng)站或源作者所有。

如果侵犯了你的權益請來信告知我們刪除。郵箱:business@qudong.com

相關文章