導讀:針對有關螞蟻“百靈”大模型訓練成本有關消息,螞蟻集團回應稱,公司針對不同芯片持續(xù)調優(yōu),以降低 AI 應用成本,目前已經(jīng)取得一定進展,也將逐步通過開源分享。
3 月 24 日消息,據(jù)新浪科技報道,針對有關螞蟻“百靈”大模型訓練成本有關消息,螞蟻集團回應稱,公司針對不同芯片持續(xù)調優(yōu),以降低 AI 應用成本,目前已經(jīng)取得一定進展,也將逐步通過開源分享。
附事件背景:
近日,螞蟻集團 Ling 團隊在預印版 Arxiv 平臺發(fā)表技術成果論文《每一個 FLOP 都至關重要:無需高級 GPU 即可擴展 3000 億參數(shù)混合專家 LING 大模型》,宣布推出兩款不同規(guī)模的 MoE (混合專家)大語言模型 —— 百靈輕量版(Ling-Lite)與百靈增強版(Ling-Plus),并提出一系列創(chuàng)新方法,實現(xiàn)在低性能硬件上高效訓練大模型,顯著降低成本。
百靈輕量版參數(shù)規(guī)模為 168 億(激活參數(shù) 27.5 億),增強版基座模型參數(shù)規(guī)模高達 2900 億(激活參數(shù) 288 億),性能均達行業(yè)領先水平。實驗表明,其 3000 億參數(shù)的 MoE 大模型可在使用國產(chǎn) GPU 的低性能設備上完成高效訓練,性能與完全使用英偉達芯片、同規(guī)模的稠密模型及 MoE 模型相當。