應(yīng)用

技術(shù)

物聯(lián)網(wǎng)世界 >> 物聯(lián)網(wǎng)新聞 >> 物聯(lián)網(wǎng)熱點(diǎn)新聞
企業(yè)注冊(cè)個(gè)人注冊(cè)登錄

國(guó)產(chǎn)GPU AI訓(xùn)推達(dá)到國(guó)際水準(zhǔn)!摩爾線(xiàn)程已媲美RTX 4090、A100

2024-06-17 09:18 快科技

導(dǎo)讀:024年5月份與智譜AI開(kāi)展了新一輪GPU大模型適配、性能測(cè)試,包括大模型推理、基于夸娥(KUAE)千卡智算集群的大模型預(yù)訓(xùn)練。

  6月14日消息,摩爾線(xiàn)程官方宣布,2024年5月份與智譜AI開(kāi)展了新一輪GPU大模型適配、性能測(cè)試,包括大模型推理、基于夸娥(KUAE)千卡智算集群的大模型預(yù)訓(xùn)練。

  測(cè)試使用的相關(guān)大模型,來(lái)自智譜AI基座大模型及其開(kāi)源版本。

  測(cè)試結(jié)果表明,在推理方面,摩爾線(xiàn)程自研全功能GPU顯著優(yōu)于基準(zhǔn)對(duì)比產(chǎn)品RTX 3090和RTX 4090,其中全部測(cè)試用例中優(yōu)于RTX 3090,在多batch下優(yōu)于RTX 4090。

  在訓(xùn)練方面,摩爾線(xiàn)程夸娥千卡智算集群的訓(xùn)練精度與A100集群相比,誤差在1%以?xún)?nèi),而集群性能擴(kuò)展系數(shù)超過(guò)90%,模型算力利用率(MFU)與A100集群相當(dāng)。

  這一結(jié)果,對(duì)于中國(guó)大模型產(chǎn)品技術(shù)生態(tài)具有重要的意義:

  一是技術(shù)自主新突破。

  摩爾線(xiàn)程千卡智算集群成功應(yīng)用ChatGLM預(yù)訓(xùn)練,標(biāo)志著摩爾線(xiàn)程有能力讓大模型訓(xùn)練與推理在全國(guó)產(chǎn)可控的算力底座上運(yùn)行,可增強(qiáng)技術(shù)自主性,保障信息安全。

  二是助力打破算力瓶頸。

  根據(jù)Scaling laws(尺度定律),有限的算力供應(yīng)可能成為制約大模型發(fā)展的關(guān)鍵瓶頸,而摩爾線(xiàn)程全功能GPU可以提高大模型的迭代速度和自研水平,助推中國(guó)大模型更好發(fā)展。

  三是開(kāi)拓創(chuàng)新空間。

  摩爾線(xiàn)程與智譜AI卓有成效的適配與測(cè)試合作,有利于推動(dòng)實(shí)現(xiàn)軟硬件的深度融合與協(xié)同創(chuàng)新。

  四是降低運(yùn)營(yíng)成本。

  摩爾線(xiàn)程憑進(jìn)的AGI算力底座,不僅可以兼容適配全球主流AI軟件生態(tài),節(jié)約遷移成本,而且在單位算力總體擁有成本上擁有較為明顯優(yōu)勢(shì),能夠有效降低大模型產(chǎn)品研發(fā)成本。

  值得一提的是,早在2022年8月,智譜AI就開(kāi)源了GLM-130B模型,2023年又推出了千億基座對(duì)話(huà)模型ChatGLM,以及開(kāi)源版本的ChatGLM-6B。

  最近,摩爾線(xiàn)程陸續(xù)公布了與國(guó)產(chǎn)AI企業(yè)在大模型訓(xùn)練、推理方面的合作,主要包括:

 ?。?第一家接入無(wú)問(wèn)芯穹,適配無(wú)穹Infini-AI大模型開(kāi)發(fā)與服務(wù)平臺(tái),完成LLama2 700億參數(shù)大模型訓(xùn)練測(cè)試、MT-infini-3B 3B(30億參數(shù))規(guī)模大模型實(shí)訓(xùn)

 ?。?完成憨猴集團(tuán)70億、340億。700億參數(shù)量級(jí)大模型的分布式訓(xùn)練

 ?。?完成與滴普企業(yè)大模型Deepexi v1.0的訓(xùn)練、推理適配

 ?。?完成羽人科技70億參數(shù)大語(yǔ)言模型YuRen-7b的訓(xùn)練測(cè)試

  - 完成師者AI 70億參數(shù)全學(xué)科教育大模型的高強(qiáng)度訓(xùn)練測(cè)試