中新網(wǎng)北京6月3日電 (記者 夏賓)近年來,為了追求大模型的智慧能力,各國公司不停加碼投入,4月,Meta宣布追加10億美元投資,用于其AI芯片研發(fā)和AI數(shù)據(jù)中心建設(shè);亞馬遜為了建設(shè)新數(shù)據(jù)中心投入110億美元。但在大模型擴張的背后,算力代價、能源代價同樣巨大。
有業(yè)界技術(shù)團(tuán)隊測算,若要對一個5000億參數(shù)規(guī)模的單體大模型進(jìn)行充分訓(xùn)練,所需算力基礎(chǔ)設(shè)施約在10億美元規(guī)模,每年消耗的電費在5.3億元人民幣。無論對于哪個機構(gòu)、企業(yè),這都是天文數(shù)字和巨大代價,中國也不例外。
知名科學(xué)雜志《Nature》此前發(fā)表了一篇關(guān)于大模型未來發(fā)展之路的文章,《In Al, is bigger always better?》(人工智能,越大型越好?)。爭議的出現(xiàn),意味著AI發(fā)展方向出現(xiàn)了分歧。
如今,“大”不再是模型的唯一追求,計算效率和算力開銷兩大問題成為新的行業(yè)焦點。
對大模型推理成本的優(yōu)化,可通過很多技術(shù)手段實現(xiàn)。首先是模型本身,模型結(jié)構(gòu)、訓(xùn)練方法都可以持續(xù)改進(jìn),包括業(yè)界很關(guān)注的MoE(混合專家模型),就是優(yōu)化推理成本很好的解決方案。其次是工程上的優(yōu)化。大模型的調(diào)用量越大,優(yōu)化推理成本的空間也越大。以前的模型都是單機推理,大模型用的是分布式推理。所以如果能把各種各樣底層算力用得更好,推理成本就會大大降低。
MoE大模型的盛行,實際上對應(yīng)的正是模型能力和算力開銷兩大問題的解決。這也是為何眾多大模型廠商如OpenAI、谷歌、Mistral AI、浪潮信息等陸續(xù)基于MoE架構(gòu)升級自家大模型產(chǎn)品的原因。
從浪潮信息發(fā)布的“源2.0-M32”開源大模型來看,其基于“源2.0”系列大模型已有工作基礎(chǔ),創(chuàng)新提出和采用了“基于注意力機制的門控網(wǎng)絡(luò)”技術(shù),構(gòu)建包含32個專家(Expert)的混合專家模型(MoE),并大幅提升了模型算力效率,模型運行時激活參數(shù)為37億,在業(yè)界主流基準(zhǔn)評測中性能全面對標(biāo)700億參數(shù)的LLaMA3開源大模型。
浪潮信息人工智能首席科學(xué)家吳韶華在接受中新網(wǎng)記者采訪時說,我們一直在想如何以更低的算力消耗,提高整個大模型的應(yīng)用效果,能讓企業(yè)、機構(gòu)以更小的算力代價去獲得更高的模型能力。“這可能是中國發(fā)展自己的AI大模型比較行之有效的路徑!
他直言,大模型推進(jìn)速度越來越快,必須強調(diào)模型算力效率。“大家可以想象,效率越高就意味著在單位算力投入相等的情況下獲得的精度回報越高,它對于訓(xùn)練和應(yīng)用都非常有利!
“現(xiàn)實的算力是有限的,我們一再反復(fù)強調(diào)模算效率,試圖針對當(dāng)前算力情況闖出一條自己覺得比較好的路子。在固定每個Token算力不變的情況下,通過擴展專家數(shù)量可以獲得更大參數(shù)量的模型,進(jìn)而獲得更高精度!眳巧厝A說。
他進(jìn)一步稱,整體來看,盡管當(dāng)前模型的能力提升非常之快,但之前大家更多關(guān)注單個維度問題,即平均精度的提升。但大模型進(jìn)入快速落地時代,就不得不考慮更多維度的問題,包括模算效率、精度、算力開銷等。
中國工程院院士鄭緯民曾做過這樣的計算,在大模型訓(xùn)練過程中,70%開銷要花在算力上;推理過程中95%的花費也是在算力上。
為解決大模型訓(xùn)練的算力不足問題,鄭緯民建議,在推動智能計算中心建設(shè)同時也可以利用已有超算系統(tǒng)的空余算力。
鄭緯民表示,現(xiàn)有14個國家掛牌的超算系統(tǒng),每臺機器的建設(shè)成本都很高,成本在10億元至20億元,甚至更高。這些超算系統(tǒng)已經(jīng)為中國的國民經(jīng)濟(jì)發(fā)展作出巨大貢獻(xiàn),但有些系統(tǒng)還有空余算力,這些空余算力也可被用來做大模型訓(xùn)練,且經(jīng)過優(yōu)化甚至可降低大模型訓(xùn)練成本。
對于近期中國企業(yè)的一輪大模型降價,零一萬物CEO李開復(fù)表示,未來整個行業(yè)的推理成本每年降低十倍是可以期待的,且這個趨勢是必然的,如此會有更多人用上大模型,這是非常利好的消息。(完)