導讀:據(jù)日本經(jīng)濟新聞報道,英偉達的尖端圖像處理半導體(GPU)H200 現(xiàn)已開始供貨。H200 為面向 AI 領域的半導體,性能超過當前主打的 H100。
3 月 28 日消息,據(jù)日本經(jīng)濟新聞報道,英偉達的尖端圖像處理半導體(GPU)H200 現(xiàn)已開始供貨。H200 為面向 AI 領域的半導體,性能超過當前主打的 H100。
根據(jù)英偉達方面公布的性能評測結(jié)果,以 Meta 公司旗下大語言模型 Llama 2 處理速度為例,H200 相比于 H100,生成式 AI 導出答案的處理速度最高提高了 45%。
市場調(diào)研機構 Omdia 曾表示,2022 年英偉達在 AI 半導體市場約占 8 成的份額,與此同時 AMD 等競爭對手也在開發(fā)對抗英偉達的產(chǎn)品,競爭愈演愈烈。
英偉達當?shù)貢r間 3 月 18 日在開發(fā)者大會上宣布,年內(nèi)將推出新一代 AI 半導體“B200”,B200 和 CPU(中央運算處理裝置)組合的新產(chǎn)品用于最新的 LLM 上?!白顝?AI 加速卡”GB200 包含了兩個 B200 Blackwell GPU 和一個基于 Arm 的 Grace CPU,推理大語言模型性能比 H100 提升 30倍,成本和能耗降至 25 分之一。
GB200 采用新一代 AI 圖形處理器架構Blackwell,黃仁勛在 GTC 大會上表示:“Hopper 固然已經(jīng)非常出色了,但我們需要更強大的 GPU”。
據(jù)IT之家此前報道,英偉達 H200 于去年 11 月發(fā)布,其為基于英偉達的“Hopper”架構的 HGX H200 GPU,是 H100 GPU 的繼任者,也是該公司第一款使用 HBM3e 內(nèi)存的芯片,這種內(nèi)存速度更快,容量更大,因此更適合大型語言模型。較前任霸主 H100,H200 的性能直接提升了 60% 到 90%。英偉達稱:“借助 HBM3e,英偉達 H200 以每秒 4.8 TB 的速度提供 141GB 的內(nèi)存,與 A100 相比,容量幾乎是其兩倍,帶寬增加了 2.4 倍?!?/p>